• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 572
  • 229
  • 73
  • 66
  • 58
  • 26
  • 23
  • 22
  • 12
  • 12
  • 12
  • 12
  • 12
  • 11
  • 7
  • Tagged with
  • 1347
  • 226
  • 220
  • 212
  • 192
  • 179
  • 130
  • 128
  • 121
  • 104
  • 100
  • 95
  • 84
  • 73
  • 71
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
461

Peuple kanak et droit français : du droit de la colonisation au droit de la décolonisation, l'égalité en question

Wamytan, Léon 09 February 2013 (has links)
Si le choc de la colonisation de la Nouvelle-Calédonie évoqué dans le préambule de l’accord sur la Nouvelle-Calédonie du 5 mai 1998 n’est plus à démontrer, les moyens développés par le droit français à l’endroit du peuple restent à être examinés. Compte tenu des relations particulières qu’entretiennent les Kanak à la terre, le choc des cultures va se traduire par l’opposition des droits entre une coutume immuable, et un droit français qui sacralise la propriété privée, participant aux droits de l’homme et du citoyen Ces particularismes propres à la colonisation de la Nouvelle-Calédonie, ont pris de multiples formes juridiques, pour ce qui est de la prise de possession elle-même puisque le peuple premier kanak va connaitre un traité (1844), une prise de possession en 1853, et des actes de reconnaissance de souveraineté paraphés par certains chefs (1854) sur la Grande Terre.1Notre questionnement permanent est donc celui de savoir comment le peuple kanak a subi en vertu du droit français un bouleversement fondamental de son espace foncier vital, des zones d’influences de ses chefferies traditionnelles, une déstructuration de son organisation dotée de ses propres codes. La reconnaissance constitutionnelle d’un statut personnel propre au peuple premier dans l’accord de Nouméa de 1998, va permettre de confirmer et d’assurer la prééminence des usages coutumiers, non plus dans ce seul domaine, mais pour tout ce qui concerne le droit civil. Le droit français réputé fondé sur l’égalité. L’application au peuple kanak de Nouvelle-Calédonie montre que cette idée doit être réexaminée. Aussi, qu’il s’agisse de la période de la colonisation (1ere partie) et son droit discriminatoire négatif où celle de la décolonisation (2eme partie) et son droit discriminatoire positif, le peuple kanak a connu et connaît toujours des règles différentes / If the shock of the colonization of New Caledonia evoked in the introduction of the agreement on New Caledonia of May 5th, 1998 is not to be any more demonstrated, themeans developed by the French law towards the people remain to be examined. Considering the particular relations that maintain Kanak in the land, the shock of the cultures is goi ng to be translated by the opposition of the rights be tween an unchanging custom, and a French law which makes sacred the private property, participat ing in the rights of man and the citizen. These senses of identity appropriate for the coloni zation of New Caledonia, took multiple legal forms, as for the very taking possession because the Kanak first people knows a treaty (1844), a taking possession in 1853, and acts of gratitude of sovere ignty were signed by leaders (1854 ) on the Big Earth 2 . Our permanent questioning is thus the one to know how the Kanak people underwent by virtue of the French law a fundamental upheaval of his vital land space, spheres of influence ofhis traditional chieftainships, a disintegration of his organizatio n endowed with his owncodes. The constitutional gratitude of a personal status a ppropriate for the first people in the agreement of Noumea of 1998, is going to allow to confirm and to assure the superiority of the usual uses, either i n this only domain, but for all which concerns the ci vil law. The renowned French law based on the equality. The application to the Kanak people of New Caledonia shows that this idea must be revised. So, it is about the period of the colonization ( 1st part)) and its negative discriminatory law wher e that of the decolonization (2eme left) and its posi tive discriminatory law, Kanak people knew and always knows different rules.
462

Data Assimilation Experiments Using An Indian Ocean General Circulation Model

Aneesh, C S 08 1900 (has links)
Today, ocean modeling is fast developing as a versatile tool for the study of earth’s climate, local marine ecosystems and coastal engineering applications. Though the field of ocean modeling began in the early 1950s along with the development of climate models and primitive computers, even today, the state-of-the-art ocean models have their own limitations. Many issues still remain such as the uncertainity in the parameterisation of essential processes that occur on spatial and temporal scales smaller than that can be resolved in model calculations, atmospheric forcing of the ocean and the boundary and initial conditions. The advent of data assimilation into ocean modeling has heralded a new era in the field of ocean modeling and oceanic sciences. “Data assimilation” is a methodology in which observations are used to improve the forecasting skill of operational meteorological models. The study in the present thesis mainly focuses on obtaining a four dimensional realization (the spatial description coupled with the time evolution) of the oceanic flow that is simultaneously consistent with the observational evidence and with the dynamical equations of motion and to provide initial conditions for predictions of oceanic circulation and tracer distribution. A good implementation of data assimilation can be achieved with the availability of large number of good quality observations of the oceanic fields as both synoptic and in-situ data. With the technology in satellite oceanography and insitu measurements advancing by leaps over the past two decades, good synoptic and insitu observations of oceanic fields have been achieved. The current and expected explosion in remotely sensed and insitu measured oceanographic data is ushering a new age of ocean modeling and data assimilation. The thesis presents results of analysis of the impact of data assimilation in an ocean general circulation model of the North Indian Ocean. In this thesis we have studied the impact of assimilation of temperature and salinity profiles from Argo floats and Sea Surface height anomalies from satellite altimeters in a Sigma-coordinate Indian Ocean model. An ocean data assimilation system based on the Regional Ocean Modeling System (ROMS) for the Indian Ocean is used. This model is implemented, validated and applied in a climatological simulation experiment to study the circulation in the Indian Ocean. The validated model is then used for the implementation of the data assimilation system for the Indian Ocean region. This dissertation presents the qualitative and quantitative comparisons of the model simulations with and without subsurface temperature and salinity profiles and sea surface height anamoly data assimilation for the Indian Ocean region. This is the first ever reported data assimilation studies of the Argo subsurface temperature and salinity profile data with ROMS in the Indian Ocean region.
463

Formalisation et automatisation de YAO, générateur de code pour l’assimilation variationnelle de données

Nardi, Luigi 08 March 2011 (has links)
L’assimilation variationnelle de données 4D-Var est une technique très utilisée en géophysique, notamment en météorologie et océanographie. Elle consiste à estimer des paramètres d’un modèle numérique direct, en minimisant une fonction de coût mesurant l’écart entre les sorties du modèle et les mesures observées. La minimisation, qui est basée sur une méthode de gradient, nécessite le calcul du modèle adjoint (produit de la transposée de la matrice jacobienne avec le vecteur dérivé de la fonction de coût aux points d’observation). Lors de la mise en œuvre de l’AD 4D-Var, il faut faire face à des problèmes d’implémentation informatique complexes, notamment concernant le modèle adjoint, la parallélisation du code et la gestion efficace de la mémoire. Afin d’aider au développement d’applications d’AD 4D-Var, le logiciel YAO qui a été développé au LOCEAN, propose de modéliser le modèle direct sous la forme d’un graphe de flot de calcul appelé graphe modulaire. Les modules représentent des unités de calcul et les arcs décrivent les transferts des données entre ces modules. YAO est doté de directives de description qui permettent à un utilisateur de décrire son modèle direct, ce qui lui permet de générer ensuite le graphe modulaire associé à ce modèle. Deux algorithmes, le premier de type propagation sur le graphe et le second de type rétropropagation sur le graphe permettent, respectivement, de calculer les sorties du modèle direct ainsi que celles de son modèle adjoint. YAO génère alors le code du modèle direct et de son adjoint. En plus, il permet d’implémenter divers scénarios pour la mise en œuvre de sessions d’assimilation.Au cours de cette thèse, un travail de recherche en informatique a été entrepris dans le cadre du logiciel YAO. Nous avons d’abord formalisé d’une manière plus générale les spécifications deYAO. Par la suite, des algorithmes permettant l’automatisation de certaines tâches importantes ont été proposés tels que la génération automatique d’un parcours “optimal” de l’ordre des calculs et la parallélisation automatique en mémoire partagée du code généré en utilisant des directives OpenMP. L’objectif à moyen terme, des résultats de cette thèse, est d’établir les bases permettant de faire évoluer YAO vers une plateforme générale et opérationnelle pour l’assimilation de données 4D-Var, capable de traiter des applications réelles et de grandes tailles. / Variational data assimilation 4D-Var is a well-known technique used in geophysics, and in particular in meteorology and oceanography. This technique consists in estimating the control parameters of a direct numerical model, by minimizing a cost function which measures the misfit between the forecast values and some actual observations. The minimization, which is based on a gradient method, requires the computation of the adjoint model (product of the transpose Jacobian matrix and the derivative vector of the cost function at the observation points). In order to perform the 4DVar technique, we have to cope with complex program implementations, in particular concerning the adjoint model, the parallelization of the code and an efficient memory management. To address these difficulties and to facilitate the implementation of 4D-Var applications, LOCEAN is developing the YAO framework. YAO proposes to represent a direct model with a computation flow graph called modular graph. Modules depict computation units and edges between modules represent data transfer. Description directives proper to YAO allow a user to describe its direct model and to generate the modular graph associated to this model. YAO contains two core algorithms. The first one is a forward propagation algorithm on the graph that computes the output of the numerical model; the second one is a back propagation algorithm on the graph that computes the adjoint model. The main advantage of the YAO framework, is that the direct and adjoint model programming codes are automatically generated once the modular graph has been conceived by the user. Moreover, YAO allows to cope with many scenarios for running different data assimilation sessions.This thesis introduces a computer science research on the YAO framework. In a first step, we have formalized in a more general way the existing YAO specifications. Then algorithms allowing the automatization of some tasks have been proposed such as the automatic generation of an “optimal” computational ordering and the automatic parallelization of the generated code on shared memory architectures using OpenMP directives. This thesis permits to lay the foundations which, at medium term, will make of YAO a general and operational platform for data assimilation 4D-Var, allowing to process applications of high dimensions.
464

Φυτά με πράσινους βλαστούς: Συγκριτική ανατομική και φυσιολογική μελέτη

Γιώτης, Χαρίλαος 31 May 2012 (has links)
Παρά τη σημαντική της συνεισφορά στο συνολικό κέρδος σε άνθρακα των φυτών και τις λειτουργικές της ιδιαιτερότητες, η φωτοσύνθεση βλαστού δεν έχει μελετηθεί στην έκταση που της αναλογεί. Για το λόγο αυτό εφαρμόσαμε ένα συνδυασμό ανατομικών και φυσιολογικών μεθόδων για το χαρακτηρισμό του φωτοσυνθετικού μηχανισμού των πράσινων μίσχων και των στελεχών του άνθους του μονοκοτυλήδονου γεώφυτου Zantedeschia aethiopica και των πράσινων βλαστών του δικοτυλήδονου ημιξυλώδους Dianthus caryophyllus, σε σύγκριση με τα αντίστοιχα φύλλα. Οι μίσχοι και τα στελέχη του άνθους του Z. aethiopica και οι βλαστοί του D. caryophyllus διαθέτουν όλα τα ανατομικά χαρακτηριστικά ενός φωτοσυνθετικά αποδοτικού οργάνου, όπως σημαντικό αριθμό στομάτων με τυπικούς υποστομάτιους θαλάμους, χλωρεγχυματικά κύτταρα παρόμοιας μορφολογίας με τα δρυφακτοειδή κύτταρα των φύλλων, επαρκείς μεσοκυττάριους χώρους και σημαντικό ποσοστό ελεύθερων κυτταρικών τοιχωμάτων. Ωστόσο, η διάταξη των δρυφακτοειδών κυττάρων των μίσχων/στελεχών του Z. aethiopica είναι ασυνήθιστη, καθώς διευθετούνται παράλληλα με τον κατά μήκος άξονα των οργάνων. Επιπλέον, οι μίσχοι/στελέχη επέδειξαν φωτοσυνθετικά χαρακτηριστικά που προσομοιάζουν με εκείνα φύλλων σε συνθήκες καταπόνησης, όπως μειωμένο περιεχόμενο/ενεργότητα της Rubisco, αυξημένο ρυθμό του κύκλου C2 και αυξημένη κυκλική ροή ηλεκτρονίων γύρω από το PSI. Τα χαρακτηριστικά αυτά φαίνεται πως είναι εγγενή στα συγκεκριμένα φωτοσυνθετικά όργανα, εξυπηρετώντας την αυξημένη αζωτοδεσμευτική ικανότητα του είδους, την ποιοτική ρύθμιση του περιεχομένου τους σε αμινοξέα, την αποκαρβοξυλίωση C4-οργανικών οξέων του διαπνευστικού ρεύματος και την ταχεία επαγωγή της μη-φωτοχημικής απόσβεσης. Σε αντίθεση με το Z. aethiopica, η φωτοσυνθετική απόδοση των βλαστών του D. caryophyllus βρέθηκε ανώτερη αυτής των φύλλων, ως αποτέλεσμα των υψηλότερων ρυθμών του κύκλου C3 και μιας πιθανής οργανο-ειδικής ποικιλότητας του παράγοντα εξειδίκευσης της Rubisco. Η μειωμένη ένταση του προσπίπτοντος φωτός in vivo, λόγω του κάθετου προσανατολισμού των βλαστών, ενδεχομένως να οδηγεί σε χαμηλότερα επίπεδα φωτοπροστασίας σε σύγκριση με τα φύλλα και στην υιοθέτηση μιας στρατηγικής βελτιστοποίησης του ρυθμού καθήλωσης C, η οποία πιθανώς περιλαμβάνει και την καθήλωση CO2, που προέρχεται από την αποκαρβοξυλίωση C4-οργανικών οξέων του διαπνευστικού ρεύματος. / Despite its significant contribution to the net carbon gain of plants and its distinct functional properties, stem photosynthesis has not yet received adequate scientific attention. For this reason, a combination of anatomical and physiological methods was used to characterize the photosynthetic machinery of the green petioles and pedicels of the monocotyledonous geophyte Zantedeschia aethiopica and the green stems of the dicotyledonous semi-woody species Dianthus caryophyllus, in comparison to the corresponding leaves. Both the green petioles/pedicels of Z. aethiopica and the green stems of D. caryophyllus possess all the anatomical prerequisites of an actively photosynthesizing organ i.e. considerable number of stomata with typical underlying substomatal chambers, chlorenchyma cells which are similar to the leaf palisade chlorenchyma cells and considerable amount of both intercellular spaces and palisade free cell walls. Yet, the palisade cells of Z. aethiopica petioles/pedicels show a peculiar arrangement with their long axis parallel to the longitudinal organ axis. Furthermore, petiole/pedicel photosynthetic characteristics resemble those of leaves under adversity i.e. reduced Rubisco activity/content, high photorespiration rates and significant cyclic electron flow around PSI. It is concluded that these are innate attributes of petiole/pedicel photosynthesis serving particular functions like the increased nitrogen fixing activity of the species, the qualitative adjustment of the petiole/pedicel amino acid content, the active decarboxylation of C4-organic acids and the rapid induction of non-photochemical quenching. Stem photosynthesis in D. caryophyllus was more efficient than leaf photosynthesis, as a result of the greater rates of stem C3 cycle and a possible organ-specific variation of the specificity factor of Rubisco. In general, D. caryophyllus stems display a photosynthetic pattern of optimal carbon assimilation in the expense of photoprotection. It could be hypothesized that this kind of adaptation could be due to the vertical orientation of stems, which results in lower incident light intensities in vivo and may include the use of C4-organic acids coming up with the transpiration stream as an additional carbon source.
465

Transport optimal pour l'assimilation de données images / Optimal transportation for images data assimilation

Feyeux, Nelson 08 December 2016 (has links)
Pour prédire l'évolution d'un système physique, nous avons besoin d'initialiser le modèle mathématique le représentant, donc d'estimer la valeur de l'état du système au temps initial. Cet état n'est généralement pas directement mesurable car souvent trop complexe. En revanche, nous disposons d'informations du système, prises à des temps différents, incomplètes, mais aussi entachées d'erreurs, telles des observations, de précédentes estimations, etc. Combiner ces différentes informations partielles et imparfaites pour estimer la valeur de l'état fait appel à des méthodes d'assimilation de données dont l'idée est de trouver un état initial proche de toutes les informations. Ces méthodes sont très utilisées en météorologie. Nous nous intéressons dans cette thèse à l'assimilation d'images, images qui sont de plus en plus utilisées en tant qu'observations. La spécificité de ces images est leur cohérence spatiale, l'oeil humain peut en effet percevoir des structures dans les images que les méthodes classiques d'assimilation ne considèrent généralement pas. Elles ne tiennent compte que des valeurs de chaque pixel, ce qui résulte dans certains cas à des problèmes d'amplitude dans l'état initial estimé. Pour résoudre ce problème, nous proposons de changer d'espace de représentation des données : nous plaçons les données dans un espace de Wasserstein où la position des différentes structures compte. Cet espace, équipé d'une distance de Wasserstein, est issue de la théorie du transport optimal et trouve beaucoup d'applications en imagerie notamment.Dans ce travail nous proposons une méthode d'assimilation variationnelle de données basée sur cette distance de Wasserstein. Nous la présentons ici, ainsi que les algorithmes numériques liés et des expériences montrant ses spécificités. Nous verrons dans les résultats comment elle permet de corriger ce qu'on appelle erreurs de position. / Forecasting of a physical system is computed by the help of a mathematical model. This model needs to be initialized by the state of the system at initial time. But this state is not directly measurable and data assimilation techniques are generally used to estimate it. They combine all sources of information such as observations (that may be sparse in time and space and potentially include errors), previous forecasts, the model equations and error statistics. The main idea of data assimilation techniques is to find an initial state accounting for the different sources of informations. Such techniques are widely used in meteorology, where data and particularly images are more and more numerous due to the increasing number of satellites and other sources of measurements. This, coupled with developments of meteorological models, have led to an ever-increasing quality of the forecast.Spatial consistency is one specificity of images. For example, human eyes are able to notice structures in an image. However, classical methods of data assimilation do not handle such structures because they take only into account the values of each pixel separately. In some cases it leads to a bad initial condition. To tackle this problem, we proposed to change the representation of an image: images are considered here as elements of the Wasserstein space endowed with the Wasserstein distance coming from the optimal transport theory. In this space, what matters is the positions of the different structures.This thesis presents a data assimilation technique based on this Wasserstein distance. This technique and its numerical procedure are first described, then experiments are carried out and results shown. In particularly, it appears that this technique was able to give an analysis of corrected position.
466

Simulation numérique et modélisation de l'assimilation de substrat par des microorganismes dans un écoulement turbulent / Numerical Simulation and modelling of substrate assimilation by microorganisms in a turbulent flow

Linkes, Marion 06 December 2012 (has links)
Une des problématiques majeures dans l’industrie des bioprocédés réside dans l’extrapolation des procédés biologiques à grande échelle. On observe généralement à l’échelle industrielle des écarts de rendement de croissance de la biomasse, ainsi que la formation de sous-produits comparativement à l’échelle du laboratoire. La formation de gradients de concentration à l’échelle des bioréacteurs est souvent évoquée. Dans ce travail, les interactions entre micromélange et assimilation du substrat sont abordées à l’échelle du microorganisme. Un modèle couplant transport et assimilation à l’échelle d’un microorganisme est proposé. L’existence de régimes physique et biologique, limitant l’assimilation du substrat est mise en lumière. Une approche basée sur le suivi Lagrangien de particules dans un champ de turbulence homogène isotrope est ensuite retenue. Les effets des hétérogénéités de concentration vues par les microorganismes, sont traduits à l’échelle de la population entière. Une loi analytique permettant de construire la distribution de flux reçus par les microorganismes à partir de la distribution de concentration en substrat dans le fluide, est proposée. Partant de cette distribution de concentrations vues, l’adjonction d’un modèle métabolique simplifié permet d’expliquer les baisses de vitesse spécifiques de croissance et la formation de sous-produits observées expérimentalement. Enfin, de premiers résultats sur le couplage inverse biologique sont présentés. L’effet des microorganismes sur le champ de concentration est caractérisé et une étude paramétrique sur les propriétés dynamiques et biologiques est réalisée. / The scale-up of biological process is a critical issue in the bioprocess industry. When passing from a laboratory to an industrial scale, the conversion yield of substrate into biomass is often overestimated and by-products are formed. Different existing works attempt to predict the effect of mixing on biomass growth and the emergence of substrate concentration gradients at the reactor scale are a first explanation of the degraded performances. In this work the interactions between micro-mixing and substrate assimilation are addressed at the microorganism scale. A coupled transport-assimilation model is proposed for an isolated microorganism. The emergence of physical and biological regimes limiting the substrate assimilation is enlightened. An approach based on the Lagrangian tracking of microorganisms in a homogeneous isotropic turbulent field is then chosen. The effects of local concentration heterogeneities seen by microorganisms are observed at the population scale. An analytical expression is proposed for the assimilated substrate flux distribution by the microorganisms, based on the substrate concentration distribution in the fluid. From these concentrations encountered by microorganisms, we coupled a simplified metabolic model that explains the decreased specific growth rate, and the by-products formation often observed in many experiments. Finally, first results on the biological two-way coupling are proposed. The effect of microorganisms on the substrate field is characterised and a parametric study on the dynamics as well as biological parameters is realised.
467

Solving regularized nonlinear least-squares problem in dual space with application to variational data assimilation / Résolution de problèmes des moindres carrés non-linéaires régularisés dans l'espace dual avec applications à l'assimilation de données

Gürol, Selime 14 June 2013 (has links)
Cette thèse étudie la méthode du gradient conjugué et la méthode de Lanczos pour la résolution de problèmes aux moindres carrés non-linéaires sous déterminés et régularisés par un terme de pénalisation quadratique. Ces problèmes résultent souvent d'une approche du maximum de vraisemblance, et impliquent un ensemble de m observations physiques et n inconnues estimées par régression non linéaire. Nous supposons ici que n est grand par rapport à m. Un tel cas se présente lorsque des champs tridimensionnels sont estimés à partir d'observations physiques, par exemple dans l'assimilation de données appliquée aux modèles du système terrestre. Un algorithme largement utilisé dans ce contexte est la méthode de Gauss- Newton (GN), connue dans la communauté d'assimilation de données sous le nom d'assimilation variationnelle des données quadridimensionnelles. Le procédé GN repose sur la résolution approchée d'une séquence de moindres carrés linéaires optimale dans laquelle la fonction coût non-linéaire des moindres carrés est approximée par une fonction quadratique dans le voisinage de l'itération non linéaire en cours. Cependant, il est bien connu que cette simple variante de l'algorithme de Gauss-Newton ne garantit pas une diminution monotone de la fonction coût et sa convergence n'est donc pas garantie. Cette difficulté est généralement surmontée en utilisant une recherche linéaire (Dennis and Schnabel, 1983) ou une méthode de région de confiance (Conn, Gould and Toint, 2000), qui assure la convergence globale des points critiques du premier ordre sous des hypothèses faibles. Nous considérons la seconde de ces approches dans cette thèse. En outre, compte tenu de la grande échelle de ce problème, nous proposons ici d'utiliser un algorithme de région de confiance particulier s'appuyant sur la méthode du gradient conjugué tronqué de Steihaug-Toint pour la résolution approchée du sous-problème (Conn, Gould and Toint, 2000, p. 133-139) La résolution de ce sous-problème dans un espace à n dimensions (par CG ou Lanczos) est considérée comme l'approche primale. Comme alternative, une réduction significative du coût de calcul est possible en réécrivant l'approximation quadratique dans l'espace à m dimensions associé aux observations. Ceci est important pour les applications à grande échelle telles que celles quotidiennement traitées dans les systèmes de prévisions météorologiques. Cette approche, qui effectue la minimisation de l'espace à m dimensions à l'aide CG ou de ces variantes, est considérée comme l'approche duale. La première approche proposée (Da Silva et al., 1995; Cohn et al., 1998; Courtier, 1997), connue sous le nom de Système d'analyse Statistique de l'espace Physique (PSAS) dans la communauté d'assimilation de données, commence par la minimisation de la fonction de coût duale dans l'espace de dimension m par un CG préconditionné (PCG), puis revient l'espace à n dimensions. Techniquement, l'algorithme se compose de formules de récurrence impliquant des vecteurs de taille m au lieu de vecteurs de taille n. Cependant, l'utilisation de PSAS peut être excessivement coûteuse car il a été remarqué que la fonction de coût linéaire des moindres carrés ne diminue pas monotonement au cours des itérations non-linéaires. Une autre approche duale, connue sous le nom de méthode du gradient conjugué préconditionné restreint (RPCG), a été proposée par Gratton and Tshimanga (2009). Celle-ci génère les mêmes itérations en arithmétique exacte que l'approche primale, à nouveau en utilisant la formule de récurrence impliquant des vecteurs taille m. L'intérêt principal de RPCG est qu'il en résulte une réduction significative de la mémoire utilisée et des coûts de calcul tout en conservant la propriété de convergence souhaitée, contrairement à l'algorithme PSAS. / This thesis investigates the conjugate-gradient method and the Lanczos method for the solution of under-determined nonlinear least-squares problems regularized by a quadratic penalty term. Such problems often result from a maximum likelihood approach, and involve a set of m physical observations and n unknowns that are estimated by nonlinear regression. We suppose here that n is large compared to m. These problems are encountered for instance when three-dimensional fields are estimated from physical observations, as is the case in data assimilation in Earth system models. A widely used algorithm in this context is the Gauss-Newton (GN) method, known in the data assimilation community under the name of incremental four dimensional variational data assimilation. The GN method relies on the approximate solution of a sequence of linear least-squares problems in which the nonlinear least-squares cost function is approximated by a quadratic function in the neighbourhood of the current nonlinear iterate. However, it is well known that this simple variant of the Gauss-Newton algorithm does not ensure a monotonic decrease of the cost function and that convergence is not guaranteed. Removing this difficulty is typically achieved by using a line-search (Dennis and Schnabel, 1983) or trust-region (Conn, Gould and Toint, 2000) strategy, which ensures global convergence to first order critical points under mild assumptions. We consider the second of these approaches in this thesis. Moreover, taking into consideration the large-scale nature of the problem, we propose here to use a particular trust-region algorithm relying on the Steihaug-Toint truncated conjugate-gradient method for the approximate solution of the subproblem (Conn, Gould and Toint, 2000, pp. 133-139). Solving this subproblem in the n-dimensional space (by CG or Lanczos) is referred to as the primal approach. Alternatively, a significant reduction in the computational cost is possible by rewriting the quadratic approximation in the m-dimensional space associated with the observations. This is important for large-scale applications such as those solved daily in weather prediction systems. This approach, which performs the minimization in the m-dimensional space using CG or variants thereof, is referred to as the dual approach. The first proposed dual approach (Courtier, 1997), known as the Physical-space Statistical Analysis System (PSAS) in the data assimilation community starts by solving the corresponding dual cost function in m-dimensional space by a standard preconditioned CG (PCG), and then recovers the step in n-dimensional space through multiplication by an n by m matrix. Technically, the algorithm consists of recurrence formulas involving m-vectors instead of n-vectors. However, the use of PSAS can be unduly costly as it was noticed that the linear least-squares cost function does not monotonically decrease along the nonlinear iterations when applying standard termination. Another dual approach has been proposed by Gratton and Tshimanga (2009) and is known as the Restricted Preconditioned Conjugate Gradient (RPCG) method. It generates the same iterates in exact arithmetic as those generated by the primal approach, again using recursion formula involving m-vectors. The main interest of RPCG is that it results in significant reduction of both memory and computational costs while maintaining the desired convergence property, in contrast with the PSAS algorithm. The relation between these two dual approaches and the question of deriving efficient preconditioners (Gratton, Sartenaer and Tshimanga, 2011), essential when large-scale problems are considered, was not addressed in Gratton and Tshimanga (2009).
468

Modelisation directe et inverse d'ecoulements geophysiques viscoplastiques par methodes variationnelles : Application a la glaciologie / Direct and inverse modeling of viscoplastic geophysical flows using variational methods : Application to glaciology

Martin, Nathan 10 July 2013 (has links)
Un certain nombre d’écoulements géophysiques, tels que les écoulements de glace ou de lave magmatique, impliquent le mouvement gravitaire à faible nombre de Reynolds d’un fluide viscoplastique à surface libre sur un socle rocheux. Leur modélisation fait apparaître des lois de comportement rhéologique et des descriptions de leurs intéractions avec le socle rocheux qui reposent sur des paramétrisations empiriques. Par ailleurs, l’observation systématique de ce type d’écoulements avec une grande précision est rarement possible ; les données associées à l’observation de ces écoulements, principalement des données de surface (télédétections), peuvent être peu denses, manquantes ou incertaines. Elles sont aussi le plus souvent indirectes : des paramètres inconnus comme le glissement basal ou la rhéologie sont difficilement mesurables in situ.Ce travail de thèse s’attache à la modélisation directe et inverse de ces écoulements géophysiques, particulièrement les écoulements de glace, par des méthodes variationnelles à travers la résolution du problème de Stokes pour les fluides en loi de puissance.La méthode de résolution du problème direct (Stokes non-linéaire) repose sur le principe du minimum de dissipation qui mène à un problème variationnel de type point-selle à quatre champs pour lequel on montre l’existence de solutions. La condition d’incompressibilité et la loi de comportement représentent alors des contraintes associées au problème de minimisation. La recherche des points critiques du lagrangien correspondant est réalisée à l’aide d’un algorithme de type lagrangien augmenté, discrétisé par éléments finis triangles à trois champs. Cet algorithme conduit à un important gain tant en temps de calcul qu’en utilisation mémoire par rapport aux algorithmes classiques.On s’intéresse ensuite à la modélisation numérique inverse de ces fluides à l’aide du modèle adjoint et des deux principaux outils associés : l’analyse de sensibilité et l’assimilation de données. On étudie tout d’abord la modélisation rhéologique de ces fluides à travers les deux paramètres principaux de la loi de comportement : la consistance du fluide et l’exposant rhéologique. Des analyses de sensibilité sur ces paramètres définis localement, permettent de quantifier leurs poids relatifs au sein du modèle d’écoulement, en termes de vitesses de surface. L’identification de ces grandeurs est également réalisée. L’ensemble des résultats est résumé comme une méthodologie vers une “rhéométrie virtuelle” pouvant représenter une aide solide à la mesure rhéologique.Le glissement basal, paramètre majeur dans la dynamique de la glace, est investigué selon la même approche. Les analyses de sensibilité mettent en avant une capacité à voir à travers le caractère “filtré” et non-local de la transmission de la variabilité basale vers la surface, ouvrant des perspectives vers l’utilisation des sensibilités pour la définition de lieux d’intérêt pour l’observation et la mesure. Ce glissement basal, modélisation empirique d’un processus complexe et multiéchelle, est ensuite utilisé pour la comparaison avec une méthode inverse approximative courante en glaciologie (méthode négligeant la dépendance de la viscosité à la vitesse, i.e. la non-linéarité). Le modèle adjoint, obtenu par différentiation automatique et évalué par accumulation retour, permet de définir cette approximation comme un cas limite de la méthode inverse complète. Ce formalisme mène à une généralisation du processus d’évaluation numérique de l’état adjoint, ajustable en précision et en temps de calcul en fonction de la qualité des données et du niveau de détail souhaité dans la reconstruction.L’ensemble de ces travaux est associé au développement du logiciel DassFlow-Ice de simulation directe et inverse de fluides viscoplastiques à surface libre. Ce logiciel prospectif bidimensionnel, diffusé dans la communauté glaciologique, a donné lieu au développement d’une version tridimensionnelle. / Several geophysical flows, such as ice flows or lava flows, are described by a gravity-driven low Reynolds number movement of a free surface viscoplastic fluid over a bedrock. Their modeling involves constitutive laws, typically describing their rheological behavior or interactions with their bedrock, that lean on empirical parameterizations. Otherwise, the thorough observation of this type of flows is rarely possible; data associated to the observation of these flows, mainly remote-sensed surface data, can be sparse, missing or uncertain. They are also generally indirect : unknown parameters such as the basal slipperiness or the rheology are difficult to measure on the field.This PhD work focuses on the direct and inverse modeling of these geophysical flows described by the power-law Stokes model, specifically dedicated to ice flows, using variational methods.The solution of the direct problem (Stokes non-linear) is based on the principle of minimal dissipation that leads to a variational four-field saddle-point problem for which we ensure the existence of a solution. In this context, the incompressibility condition and the constitutive rheological law represent constraints associated to the minimization problem. The critical points of the corresponding Lagrangian are determined using an augmented Lagrangian type algorithm discretized using three- field finite elements. This algorithm provides an important time and memory saving compared to classical algorithms.We then focus on the inverse numerical modeling of these fluids using the adjoint model through two main associated tools : sensitivity analysis and data assimilation. We first study the rheological modeling through the two principal input parameters (fluid consistency and rheological exponent). Sensitivity analyses with respect to these locally defined parameters allow to quantify their relative weights within the flow model, in terms of surface velocities. Identification of these parameters is also performed. The results are synthetized as a methodology towards “virtual rheometry” that could help and support rheological measurements.The basal slipperiness, major parameter in ice dynamics, is investigated using the same approach. Sensitivity analyses demonstrate an ability to see beyond the ”filtered” and non-local transmission of the basal variability to the surface. Consequently these sensitivities can be used to help defining areas of interest for observation and measurement. This basal slipperiness, empirical modeling of a multiscale complex process, is then used to carry on a comparison with a so called “self-adjoint” method, common in glaciology (neglecting the dependency of the viscosity on the velocity, i.e. the non-linearity). The adjoint model, obtained by automatic differentiation and evaluated by reverse accumulation, leads to define this approximation as a limit case of the complete inverse method. This formalism allows to generalize the process of the numerical evaluation of the adjoint state into an incomplete adjoint method, adjustable in time and accuracy depending on the quality of the data and the level of detail required in the identification.All this work is associated to the development of DassFlow-Ice software dedicated to the direct and inverse numerical simulation of free-surface viscoplastic fluids. This bidimensional prospective software, distributed within the glaciological com- munity, serves as a model for the current development of the tridimensional version.
469

L’image du corps dans les pratiques photographiques contemporaines en Martinique / The body image in contemporary photographic practices in Martinique

Thiollier, Catherine 06 July 2017 (has links)
L’enjeu de cette thèse est de présenter les différents statuts de l’image du corps, dans la photographie contemporaine en Martinique. La photographie a joué un rôle dans la conquête coloniale et la construction d’une image fantasmée de l’Autre. Il nous apparaît essentiel d’évoquer l’importance du contexte colonial puis postcolonial. Dans la photographie contemporaine des années 1970 à nos jours en Martinique, les images du corps posent la question du regard. Cette dimension de la transformation de l’être en tant qu’objet à l’être en tant que sujet, est au cœur de notre réflexion soutenue par celle des penseurs originaires de la Caraïbe (Frantz Fanon, Edouard Glissant, Stuart Hall) : images du corps marqué, fragmenté, dépossédé, de traces de mémoire, en errance ou en quête d’identité. La question plurielle de la visibilité et de l’invisibilité de l’image du corps sont au cœur de notre démarche de recherche. Sans pour autant être exhaustif, à la suite d’une analyse d’un corpus limité de photographies, des thématiques susceptibles d’exprimer une fixité de l’image du corps ou son caractère plus ouvert, sont dégagées. Le choix de quatre photographes Martiniquais en priorité, David Damoison, Gilles Elie-dit-Cosaque, Jean-Luc De Laguarigue et Joël Zobel, offre la possibilité de définir un cadre d’analyse et de comparaison, avec le souci d’établir des liens avec les concepts à l’œuvre dans les images de quelques photographes de la Caraïbe anglophone, originaires de Jamaïque et de Barbade. Comment les enjeux identifiés sont-ils présents dans l’œuvre de ces photographes Martiniquais et se prolongent ils dans les perspectives de la nouvelle scène artistique contemporaine ? / The aim of this thesis is to present the different statuses of the image of the body, in contemporary photography in Martinique. Photography played a role in the colonial conquest and the construction of a fantasized image of the Other. It seems essential to us to evoke the importance of the colonial and post-colonial context in the fantasized elaboration of the image of the Other. In contemporary photography from the seventies to the present day in Martinique, the images of the body pose the question of the gaze. The dimension of the transformation of the human being as an object to being as a subject is at the heart of our reflection supported by the thinkers originating from the Caribbean (Frantz Fanon, Edouard Glissant, Stuart Hall): images of the body marked, dismembered, fragmented, dispossessed, traces of memory, wandering or absent to itself or in search of identity. The pluralistic question of the visibility and invisibility of the image of the body are at the heart of our research process. Without being exhaustive, following an analysis of a limited corpus of photographs, themes that are capable of expressing a fixed image of the body or its more open character are uncovered. The choice of four Martinique photographers as a priority, David Damoison, Gilles Elie-dit-Cosaque, Jean-Luc De Laguarigue and Joël Zobel, offers the possibility of defining a framework of analysis and comparison, with the concern to establish links with the concepts at work in the images of some photographers of the English-speaking Caribbean, originating in Jamaica and Barbados. How are the identified issues present in the work of these Martinican photographers and are they in the perspective of the new contemporary art scene?
470

Ajustement optimal des paramètres de forçage atmosphérique par assimilation de données de température de surface pour des simulations océaniques globales / Optimal adjustment of atmospheric forcing parameters for long term simulations of the global ocean circulation.

Meinvielle, Marion 17 January 2012 (has links)
La température de surface de l'océan (SST) est depuis l'avènement des satellites, l'une des variables océaniques la mieux observée. Les modèles réalistes de circulation générale océanique ne la prennent pourtant pas en compte explicitement dans leur fonction de forçage. Dans cette dernière, seules interviennent les variables atmosphériques à proximité de la surface (température, humidité, vitesse du vent, radiations descendantes et précipitations) connues pour être entachées d'incertitudes importantes dès lors qu'on considère l'objectif d'étudier la variabilité à long terme de l'océan et son rôle climatique. La SST est alors classiquement utilisée en assimilation de données pour contraindre l'état du modèle vers une solution en accord avec les observations mais sans corriger la fonction de forçage. Cette approche présente cependant les inconvénients de l'incohérence existant potentiellement entre la solution « forcée » et « assimilée ». On se propose dans cette thèse de développer dans un contexte réaliste une méthode d'assimilation de données de SST observée pour corriger les paramètres de forçage atmosphérique sans correction de l'état océanique. Le jeu de forçage faisant l'objet de ces corrections est composé des variables atmosphériques issues de la réanalyse ERAinterim entre 1989 et 2007. On utilise pour l'estimation de paramètres une méthode séquentielle basée sur le filtre de Kalman, où le vecteur d'état est augmenté des variables de forçage dont la distribution de probabilité a priori est évaluée via des expériences d'ensemble. On évalue ainsi des corrections de forçage mensuelles applicables dans un modèle libre pour la période 1989-2007 en assimilant la SST issue de la base de données de Hurrel (Hurrel, 2008), ainsi qu'une climatologie de salinité de surface (Levitus, 1994). Cette étude démontre la faisabilité d'une telle démarche dans un contexte réaliste, ainsi que l'amélioration de la représentation des flux océan-atmosphère par l'exploitation d'observations de la surface de l'océan. / Sea surface temperature (SST) is more accurately observed from space than near-surface atmospheric variables and air-sea fluxes. But ocean general circulation models for operational forecasting or simulations of the recent ocean variability use, as surface boundary conditions, bulk formulae which do not directly involve the observed SST. In brief, models do not use explicitly in their forcing one of the best observed ocean surface variable, except when assimilated to correct the model state. This classical approach presents however some inconsistency between the “assimilated” solution of the model and the “forced” one. The objective of this research is to develop in a realistic context a new assimilation scheme based on statistical methods that will use SST satellite observations to constrain (within observation-based air-sea flux uncertainties) the surface forcing function (surface atmospheric input variables) of ocean circulation simulations. The idea is to estimate a set of corrections for the atmospheric input data from ERAinterim reanalysis that cover the period from 1989 to 2007. We use a sequential method based on the SEEK filter, with an ensemble experiment to evaluate parameters uncertainties. The control vector is extended to correct forcing parameters (air temperature, air humidity, downward longwave and shortwave radiations, precipitation, wind velocity). Over experiments of one month duration, we assimilate observed monthly SST products (Hurrel, 2008) and SSS seasonal climatology (Levitus, 1994) data, to obtain monthly parameters corrections that we can use in a free run model This study shows that we can thus produce in a realistic case, on a global scale, and over a large time period, an optimal flux correction set that improves the forcing function of an ocean model using sea surface observations.

Page generated in 0.0704 seconds