• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 155
  • 37
  • 12
  • 2
  • 1
  • 1
  • Tagged with
  • 209
  • 55
  • 54
  • 25
  • 22
  • 21
  • 18
  • 18
  • 17
  • 17
  • 16
  • 15
  • 14
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Physics and chemistry of stratospheric ozone and interactions with climate change

Kuttippurath, Jayanarayanan 21 March 2013 (has links) (PDF)
L'ozone est un constituant important dans la chimie de l'atmosphère, cela malgré sa faible concentration. L'ozone stratoshérique joue un rôle essentiel à la fois dans la régulation des radiations ultraviolettes du soleil connues pour être dangereuses aux différentes formes de vie sur Terre et également dans l'équilibre radiatif influençant le climat global. Cette thèse est consacrée à l'étude de l'évolution temporelle et spatiale de l'ozone stratosphérique polaire entre 1979 et 2012, ainsi qu'à son interaction avec le changement climatique, avec une attention particulière pour les années après 2000. L'analyse de la dynamique des hivers arctiques révèle une augmentation des évènements de forts réchauffements (EFR) ces dernières années (comparaisons faites entre les hivers 1998/99 et 2009/10). Alors qu'on compte 13 EFRs lors des 12 derniers hivers (soit 11EFR/décennie), le nombre moyen entre les hivers 1957/58 et 2009/10 s'élève à 7 EFR/décennie. Une étude chimique de la destruction de l'ozone lors des 17 derniers hivers (1993/94-2009/10) montre que celle-ci est inversement proportionnelle à l'intensité des EFRs. De même, il semble que, pour chaque hiver, plus l'EFR se produit tôt dans l'année (Décembre-Janvier), plus la perte d'ozone enregistrée est faible. Ainsi la fréquence des EFRs lors des récents hivers arctiques joue un rôle significatif sur la concentration moyenne d'ozone stratospherique dans l'hémisphère Nord et par conséquent également sur le climat arctique et global. Une analyse détaillée de la destruction d'ozone lors des hivers arctiques 1996/97 et 2002/03-2010/11 montre que l'hiver 2002/03 a subit un EFR et trois réchauffements mineurs. Pourtant, lors de cet hiver, une grande quantité d'ozone a été détruite à la fin du mois de mars. Environ 1.5 ppmv détruit entre 450 et 500 K, ou 65 DU entre 400 et 550 K qui s'ajoutent aux 0.7 ppmv détruit au mois de décembre (il s'agit de la plus forte perte d'ozone enregistrée au mois de décembre entre les hivers 1988/89 et 2010/11). La plus forte perte d'ozone enregistrée sur un hiver entier lors de cette décennie a été observée en 2010/11 (soit environ 2.5ppmv entre 400-500K ou 140DU entre 350-550K). L'étude montre également que, pour la première fois depuis que nous observons l'ozone, la quantité d'ozone détruite lors de cet hiver est comparable à celle détruite lors de certains hivers en Antarctique. Nous montrons que cette destruction d'ozone record est due à une activation des chlorines et une denitrification importante et prolongée lors de cet hiver. La perte d'ozone lors des autres hivers est de l'ordre de 0.7 à 1.6 ppmv autour de 475 K ou 40 à 115 DU entre 350 et 550 K (la plus petite destruction d'ozone ayant été mesurée lors de l'hiver 2005/06, particulièrement chaud). Pour l'Antarctique, une méthode est proposée pour estimer la tendance à long terme de la destruction chimique de l'ozone. Cette méthode est utilisée sur la période 1989-2012 pour estimer, en colonne totale, les tendances d'ozone à partir d'observations au sol et satellitaires. A l'intérieur du vortex polaire, nous montrons que la perte moyenne d'ozone se situe entre 33-50% pendant la période 1989-1992. Cette valeur est en accord avec l'augmentation de la concentration d'halogène lors de cette même période. Après cette période, la perte moyenne d'ozone semble atteindre une valeur de saturation aux alentours de 48%. La destruction d'ozone lors des hivers les plus chauds (e.g. 2002 et 2004) est légèrement inférieure (37-46%) et celle des hivers les plus froids (e.g. 2003 et 2006), légèrement supérieure (52-55%). La perte maximum d'ozone en Antarctique est observée entre le milieu du mois de septembre et le milieu du mois d'octobre, et la plus forte valeur de perte d'ozone est observée entre fin août et début septembre, atteignant en moyenne 0.5%/jr. Des analyses basées à la fois sur des profils d'ozone simulés grâce à un modèle haute résolution et sur des profils observés par instrument satellitaire lors des 7 hivers antarctiques entre 2004 et 2010, montrent également que les plus fortes pertes d'ozone coincident avec les hivers les plus froids de 2005 et 2006. Lors de ces deux hivers, la perte d'ozone a atteint 3.5 ppmv entre 450 et 550 K, ou 180 DU entre 350 et 850 K. Les deux hivers les plus chauds (2004 et 2010) ont connu les plus faibles pertes d'ozone (environ 2.5 ppmv entre 450 et 550 K, ou 160 DU entre 350 et 850 K). En Antarctique, l'altitude du maximum de destruction d'ozone est 500 K, cependant, pendant les hivers les plus froids et les hivers les plus chauds, ce maximum est 25 K plus haut (respectivement plus bas). Ce déplacement du maximum de perte permettant ainsi clairement de distinguer les hivers froids des hivers chauds. Cette étude montre également que la relative faible perte d'ozone ainsi que le trou d'ozone des récents hivers antarctiques (2004-2010) sont due à des phénomènes de réchauffement moindre.
122

Transfert de l'anomalie isotopique portée par l'ozone dans la troposphère : vers une interprétation quantitative de la composition isotopique en oxygène du nitrate atmosphérique

Vicars, William 19 April 2013 (has links) (PDF)
L'ozone (O3) possède une anomalie isotopique en oxygène qui est unique et caractéristique, offrant ainsi un précieux traceur des processus oxydatifs à l'œuvre dans l'atmosphère moderne mais aussi ceux ayant eu lieu dans le passé. Cette signature isotopique, dénotée Δ17O, se propage au sein du cycle atmosphérique de l'azote réactif (NOx = NO + NO2) et est préservée lors du dépôt du nitrate (NO3-) présent dans l'aérosol, par exemple. L'anomalie isotopique en oxygène portée par le nitrate, Δ17O(NO3-), représente ainsi un traceur de l'importance relative de l'ozone ainsi que celle d'autres oxydants dans le cycle des NOx. Ces dernières années, de nombreux travaux de recherche ont été dédiés à l'interprétation des mesures de Δ17O(NO3-). Pourtant, les processus atmosphériques responsables du transfert de l'anomalie isotopique de l'ozone vers le nitrate ainsi que leur influence globale sur la composition isotopique du nitrate à différentes échelles spatiales et temporelles sont encore mal compris. De plus, la magnitude absolue ainsi que la variabilité spatio-temporelle de Δ17O(O3) sont peu contraintes, car il est difficile d'extraire de l'ozone de l'air ambiant. Cet obstacle technique contrecarre l'interprétation des mesures de Δ17O depuis plus d'une décennie. Les questions scientifiques posées au cours de ce travail de thèse ont été choisies dans le but de combler ces lacunes. Le principal outil d'analyse utilisé dans ce travail est la " méthode bactérienne " associée à la spectrométrie de masse en flux continu (CF-IRMS), une combinaison de techniques qui permet l'analyse de la composition isotopique totale du nitrate (c'est-à-dire, la mesure de δ15N, δ18O et Δ17O). Cette méthode a été employée pour l'analyse isotopique d'échantillons de nitrate obtenus pour deux cas d'études : (i) une étude des variations spatiales de la composition isotopique du nitrate atmosphérique sur la côte californienne à l'échelle journalière; et (ii) une étude du transfert du nitrate et de sa composition isotopique à l'interface entre l'air et la neige à l'échelle saisonnière sur le plateau Antarctique. En outre, cette méthode a été adaptée à la caractérisation isotopique de l'ozone via la conversion chimique de ses atomes d'oxygène terminaux en nitrate. Au cours de cette thèse, un important jeu de données rassemblant de nombreuses mesures troposphériques de Δ17O(O3) a été obtenu, incluant une année entière de mesures à Grenoble, France (45 °N) ainsi qu'un transect latitudinal de collecte dans la couche limite au-dessus de l'océan Atlantique, entre 50 °S to 50 °N. Ces observations ont permis de doubler le nombre de mesures troposphériques de Δ17O(O3) existantes avant cette thèse et d'accroître de manière conséquente notre représentation globale de cette variable isotopique essentielle. Enfin, les deux cas étudiés et présentés dans ce document révèlent des aspects nouveaux et inattendus de la dynamique isotopique du nitrate atmosphérique, avec d'importantes conséquences potentielles pour la modélisation de la qualité de l'air et l'interprétation de l'information isotopique contenue dans les carottes de glace prélevées aux pôles.
123

Les régions dans la gouvernance territoriale de la culture : l'émergence d'une policy capacity en Rhône-Alpes et au Piémont / Regions in the territorial governance of culture : the emergence of a policy capacity in Rhone-Alpes and Piedmont

Santagati, Maria Elena 14 December 2015 (has links)
Les régions émergent comme des acteurs de plus en plus importants dans la gouvernance territoriale de la culture. Ce travail entend reconstruire l'évolution de leur rôle par l'examen des processus de décentralisation et de modernisation qui ont eu lieu à partir des années '70 dans deux états européens, la France et l'Italie, et qui ont eu un impact conséquent sur l’émergence de l'intervention régionale dans le domaine culturel. La région est ici appréhendée à la fois comme échelle et comme institution en action, en combinant des approches et des disciplines différentes. Reposant sur une analyse comparative de Rhône-Alpes et du Piémont, concernant notamment les acteurs majeurs et les enjeux de leur coopération ainsi que les dynamiques de gouvernance de la culture à l'échelle régionale, ce travail permet également de dégager le déploiement d'une policy capacity comme spécificité de l'intervention de ces deux régions. / Regions have been emerging as important actors in the territorial governance of culture. This research is an attempt to retrace their role through the analysis of the decentralisation and modernization processes occured in two European countries, France and Italy, after the 70s, which deeply affected the regional intervention in the cultural sector. Region is thus considered both as a scale and as an institution, through a combination of different approaches and disciplines. With a comparative analysis of Rhone-Alpes and Piedmont as regards to the main actors and dynamics of governance of culture at regional level, the research points out the emergence of a policy capacity as a specificity of these two regions.
124

Séparation de sources en imagerie nucléaire / Source separation in nuclear imaging

Filippi, Marc 05 April 2018 (has links)
En imagerie nucléaire (scintigraphie, TEMP, TEP), les diagnostics sont fréquemment faits à l'aide des courbes d'activité temporelles des différents organes et tissus étudiés. Ces courbes représentent l'évolution de la distribution d'un traceur radioactif injecté dans le patient. Leur obtention est compliquée par la superposition des organes et des tissus dans les séquences d'images 2D, et il convient donc de séparer les différentes contributions présentes dans les pixels. Le problème de séparation de sources sous-jacent étant sous-déterminé, nous proposons d'y faire face dans cette thèse en exploitant différentes connaissances a priori d'ordre spatial et temporel sur les sources. Les principales connaissances intégrées ici sont les régions d'intérêt (ROI) des sources qui apportent des informations spatiales riches. Contrairement aux travaux antérieurs qui ont une approche binaire, nous intégrons cette connaissance de manière robuste à la méthode de séparation, afin que cette dernière ne soit pas sensible aux variations inter et intra-utilisateurs dans la sélection des ROI. La méthode de séparation générique proposée prend la forme d'une fonctionnelle à minimiser, constituée d'un terme d'attache aux données ainsi que de pénalisations et de relâchements de contraintes exprimant les connaissances a priori. L'étude sur des images de synthèse montrent les bons résultats de notre approche par rapport à l'état de l'art. Deux applications, l'une sur les reins, l'autre sur le cœur illustrent les résultats sur des données cliniques réelles. / In nuclear imaging (scintigraphy, SPECT, PET), diagnostics are often made with time activity curves (TAC) of organs and tissues. These TACs represent the dynamic evolution of tracer distribution inside patient's body. Extraction of TACs can be complicated by overlapping in the 2D image sequences, hence source separation methods must be used in order to extract TAC properly. However, the underlying separation problem is underdetermined. We propose to overcome this difficulty by adding some spatial and temporal prior knowledge about sources on the separation process. The main knowledge used in this work is region of interest (ROI) of organs and tissues. Unlike state of the art methods, ROI are integrated in a robust way in our method, in order to face user-dependancy in their selection. The proposed method is generic and minimize an objective function composed with a data fidelity criterion, penalizations and relaxations expressing prior knowledge. Results on synthetic datasets show the efficiency of the proposed method compare to state of the art methods. Two clinical applications on the kidney and on the heart are also adressed.
125

Palais-châteaux-abbayes-chapitres. Approche archéologique et historique des centres de pouvoir autour du pagus de Lomme au IXe-XIe siècle

Chantinne, Frédéric 24 September 2018 (has links)
Grâce aux apports de l’archéologie préventive ces dernières décennies, il est aujourd’hui possible de porter un nouveau regard sur le Premier Moyen Âge. En mobilisant toutes les sources disponibles, quelle que soit leur nature, notre objectif est d’éclairer le cadre matériel et la structure sociale de cette période difficile à appréhender des IXe-XIe siècles. Pour ce faire, nous avons fait le choix de nous pencher sur une région autour des vallées de la Meuse moyenne et de la Sambre, portant alors le nom de pagus de Lomme, aujourd’hui située au centre de la Wallonie. Nos régions étaient, à l’époque, organisées autour de ce que l’on peut appeler des « centres de pouvoirs », que l’on a qualifiés de palais, château, abbaye, chapitre,… remplissant chacun des fonctions comparables. Associés à des agglomérations, des « villes », ils servaient de lieu de centralité pour la gestion de matières économiques, politiques, religieuses, militaires, au cœur de territoires définis. Apparaît ainsi, en continuité avec l’Antiquité tardive, innervé par un réseau routier efficace permettant tant aux hommes qu’aux marchandises et aux matières premières de circuler, un monde dynamique, "connecté", berceau de notre cadre de vie. La recherche laisse entrevoir pour cette période un potentiel archéologique, un patrimoine méconnu, à étudier, à gérer, et à transmettre aux générations futures, alors qu’il ne cesse de disparaître chaque jour au gré des aménagements. / Doctorat en Histoire, art et archéologie / info:eu-repo/semantics/nonPublished
126

Intermédiation territoriale et spatialisation des activités économiques : cohérences et contradictions de l'action publique locale : investigation par la planification stratégique / Territorial intermediation and spatial distribution of economic activities : consistencies ans contradictions of local public action : investigation by strategic planning

Nadou, Fabien 10 December 2013 (has links)
Cette thèse repose sur la mise en exergue du concept d’intermédiation territoriale, considérée comme une dynamique relationnelle et organisationnelle entre acteurs locaux, variable dans le temps et dans l’espace. Le territoire, fruit des interactions et des constructions sociales, jouant ici comme un véritable révélateur de leurs comportements, de leurs pratiques et des processus qui les animent. La réflexion focalise sur l’inscription spatiale des activités économiques, de même que sur les rapports entre acteurs territoriaux qui conduisent à sa formation et sa gestion. La planification stratégique spatialisée, en tant que vision à moyen-long terme de l’organisation spatiale des activités, constitue aussi bien l’objet privilégié d’analyse de ce travail, qu’une porte d’entrée permettant d’interroger le rapprochement entre les pratiques en aménagement et les politiques de développement économique à l’échelle locale. L’enjeu est de pouvoir observer et analyser les cohérences qui sont à l’oeuvre, et demandées à la PSS, autant qu’une nécessité accrue de durabilité. Dans quelles mesures la planification stratégique spatialisée, orchestrée par l’action publique locale, s’inscrit-elle dans un processus d’intermédiation territoriale, voire de façon plus générale, de développement territorial durable ? / This thesis is therefore based on the emphasis of the concept of territorial intermediation we consider a relational and organizational dynamics between local actors, variable in time and space The territory, the result of interactions and social constructs, playing here as a true indication of their behaviors, practices and processes that drive them. Reflecting our focus on spatial registration economic activities, as well as the relationship between territorial actors that lead to its formation and management. The strategic spatial planning as a vision in the medium - long term spatial organization of activities, also constitutes the privileged object of this work as input to query the connection between the door management practices and policies of economic development at the local level. The challenge is to observe and analyze the consistency, required the PSS, as an increased need for sustainability. To what extent the strategic spatial planning, orchestrated by the local public action, it enrolled in a territorial intermediation process, or more generally, for sustainable territorial development ?
127

Solving regularized nonlinear least-squares problem in dual space with application to variational data assimilation / Résolution de problèmes des moindres carrés non-linéaires régularisés dans l'espace dual avec applications à l'assimilation de données

Gürol, Selime 14 June 2013 (has links)
Cette thèse étudie la méthode du gradient conjugué et la méthode de Lanczos pour la résolution de problèmes aux moindres carrés non-linéaires sous déterminés et régularisés par un terme de pénalisation quadratique. Ces problèmes résultent souvent d'une approche du maximum de vraisemblance, et impliquent un ensemble de m observations physiques et n inconnues estimées par régression non linéaire. Nous supposons ici que n est grand par rapport à m. Un tel cas se présente lorsque des champs tridimensionnels sont estimés à partir d'observations physiques, par exemple dans l'assimilation de données appliquée aux modèles du système terrestre. Un algorithme largement utilisé dans ce contexte est la méthode de Gauss- Newton (GN), connue dans la communauté d'assimilation de données sous le nom d'assimilation variationnelle des données quadridimensionnelles. Le procédé GN repose sur la résolution approchée d'une séquence de moindres carrés linéaires optimale dans laquelle la fonction coût non-linéaire des moindres carrés est approximée par une fonction quadratique dans le voisinage de l'itération non linéaire en cours. Cependant, il est bien connu que cette simple variante de l'algorithme de Gauss-Newton ne garantit pas une diminution monotone de la fonction coût et sa convergence n'est donc pas garantie. Cette difficulté est généralement surmontée en utilisant une recherche linéaire (Dennis and Schnabel, 1983) ou une méthode de région de confiance (Conn, Gould and Toint, 2000), qui assure la convergence globale des points critiques du premier ordre sous des hypothèses faibles. Nous considérons la seconde de ces approches dans cette thèse. En outre, compte tenu de la grande échelle de ce problème, nous proposons ici d'utiliser un algorithme de région de confiance particulier s'appuyant sur la méthode du gradient conjugué tronqué de Steihaug-Toint pour la résolution approchée du sous-problème (Conn, Gould and Toint, 2000, p. 133-139) La résolution de ce sous-problème dans un espace à n dimensions (par CG ou Lanczos) est considérée comme l'approche primale. Comme alternative, une réduction significative du coût de calcul est possible en réécrivant l'approximation quadratique dans l'espace à m dimensions associé aux observations. Ceci est important pour les applications à grande échelle telles que celles quotidiennement traitées dans les systèmes de prévisions météorologiques. Cette approche, qui effectue la minimisation de l'espace à m dimensions à l'aide CG ou de ces variantes, est considérée comme l'approche duale. La première approche proposée (Da Silva et al., 1995; Cohn et al., 1998; Courtier, 1997), connue sous le nom de Système d'analyse Statistique de l'espace Physique (PSAS) dans la communauté d'assimilation de données, commence par la minimisation de la fonction de coût duale dans l'espace de dimension m par un CG préconditionné (PCG), puis revient l'espace à n dimensions. Techniquement, l'algorithme se compose de formules de récurrence impliquant des vecteurs de taille m au lieu de vecteurs de taille n. Cependant, l'utilisation de PSAS peut être excessivement coûteuse car il a été remarqué que la fonction de coût linéaire des moindres carrés ne diminue pas monotonement au cours des itérations non-linéaires. Une autre approche duale, connue sous le nom de méthode du gradient conjugué préconditionné restreint (RPCG), a été proposée par Gratton and Tshimanga (2009). Celle-ci génère les mêmes itérations en arithmétique exacte que l'approche primale, à nouveau en utilisant la formule de récurrence impliquant des vecteurs taille m. L'intérêt principal de RPCG est qu'il en résulte une réduction significative de la mémoire utilisée et des coûts de calcul tout en conservant la propriété de convergence souhaitée, contrairement à l'algorithme PSAS. / This thesis investigates the conjugate-gradient method and the Lanczos method for the solution of under-determined nonlinear least-squares problems regularized by a quadratic penalty term. Such problems often result from a maximum likelihood approach, and involve a set of m physical observations and n unknowns that are estimated by nonlinear regression. We suppose here that n is large compared to m. These problems are encountered for instance when three-dimensional fields are estimated from physical observations, as is the case in data assimilation in Earth system models. A widely used algorithm in this context is the Gauss-Newton (GN) method, known in the data assimilation community under the name of incremental four dimensional variational data assimilation. The GN method relies on the approximate solution of a sequence of linear least-squares problems in which the nonlinear least-squares cost function is approximated by a quadratic function in the neighbourhood of the current nonlinear iterate. However, it is well known that this simple variant of the Gauss-Newton algorithm does not ensure a monotonic decrease of the cost function and that convergence is not guaranteed. Removing this difficulty is typically achieved by using a line-search (Dennis and Schnabel, 1983) or trust-region (Conn, Gould and Toint, 2000) strategy, which ensures global convergence to first order critical points under mild assumptions. We consider the second of these approaches in this thesis. Moreover, taking into consideration the large-scale nature of the problem, we propose here to use a particular trust-region algorithm relying on the Steihaug-Toint truncated conjugate-gradient method for the approximate solution of the subproblem (Conn, Gould and Toint, 2000, pp. 133-139). Solving this subproblem in the n-dimensional space (by CG or Lanczos) is referred to as the primal approach. Alternatively, a significant reduction in the computational cost is possible by rewriting the quadratic approximation in the m-dimensional space associated with the observations. This is important for large-scale applications such as those solved daily in weather prediction systems. This approach, which performs the minimization in the m-dimensional space using CG or variants thereof, is referred to as the dual approach. The first proposed dual approach (Courtier, 1997), known as the Physical-space Statistical Analysis System (PSAS) in the data assimilation community starts by solving the corresponding dual cost function in m-dimensional space by a standard preconditioned CG (PCG), and then recovers the step in n-dimensional space through multiplication by an n by m matrix. Technically, the algorithm consists of recurrence formulas involving m-vectors instead of n-vectors. However, the use of PSAS can be unduly costly as it was noticed that the linear least-squares cost function does not monotonically decrease along the nonlinear iterations when applying standard termination. Another dual approach has been proposed by Gratton and Tshimanga (2009) and is known as the Restricted Preconditioned Conjugate Gradient (RPCG) method. It generates the same iterates in exact arithmetic as those generated by the primal approach, again using recursion formula involving m-vectors. The main interest of RPCG is that it results in significant reduction of both memory and computational costs while maintaining the desired convergence property, in contrast with the PSAS algorithm. The relation between these two dual approaches and the question of deriving efficient preconditioners (Gratton, Sartenaer and Tshimanga, 2011), essential when large-scale problems are considered, was not addressed in Gratton and Tshimanga (2009).
128

Compréhension de contenus visuels par analyse conjointe du contenu et des usages / Combining content analysis with usage analysis to better understand visual contents

Carlier, Axel 30 September 2014 (has links)
Dans cette thèse, nous traitons de la compréhension de contenus visuels, qu’il s’agisse d’images, de vidéos ou encore de contenus 3D. On entend par compréhension la capacité à inférer des informations sémantiques sur le contenu visuel. L’objectif de ce travail est d’étudier des méthodes combinant deux approches : 1) l’analyse automatique des contenus et 2) l’analyse des interactions liées à l’utilisation de ces contenus (analyse des usages, en plus bref). Dans un premier temps, nous étudions l’état de l’art issu des communautés de la vision par ordinateur et du multimédia. Il y a 20 ans, l’approche dominante visait une compréhension complètement automatique des images. Cette approche laisse aujourd’hui plus de place à différentes formes d’interventions humaines. Ces dernières peuvent se traduire par la constitution d’une base d’apprentissage annotée, par la résolution interactive de problèmes (par exemple de détection ou de segmentation) ou encore par la collecte d’informations implicites issues des usages du contenu. Il existe des liens riches et complexes entre supervision humaine d’algorithmes automatiques et adaptation des contributions humaines via la mise en œuvre d’algorithmes automatiques. Ces liens sont à l’origine de questions de recherche modernes : comment motiver des intervenants humains ? Comment concevoir des scénarii interactifs pour lesquels les interactions contribuent à comprendre le contenu manipulé ? Comment vérifier la qualité des traces collectées ? Comment agréger les données d’usage ? Comment fusionner les données d’usage avec celles, plus classiques, issues d’une analyse automatique ? Notre revue de la littérature aborde ces questions et permet de positionner les contributions de cette thèse. Celles-ci s’articulent en deux grandes parties. La première partie de nos travaux revisite la détection de régions importantes ou saillantes au travers de retours implicites d’utilisateurs qui visualisent ou acquièrent des con- tenus visuels. En 2D d’abord, plusieurs interfaces de vidéos interactives (en particulier la vidéo zoomable) sont conçues pour coordonner des analyses basées sur le contenu avec celles basées sur l’usage. On généralise ces résultats en 3D avec l’introduction d’un nouveau détecteur de régions saillantes déduit de la capture simultanée de vidéos de la même performance artistique publique (spectacles de danse, de chant etc.) par de nombreux utilisateurs. La seconde contribution de notre travail vise une compréhension sémantique d’images fixes. Nous exploitons les données récoltées à travers un jeu, Ask’nSeek, que nous avons créé. Les interactions élémentaires (comme les clics) et les données textuelles saisies par les joueurs sont, comme précédemment, rapprochées d’analyses automatiques des images. Nous montrons en particulier l’intérêt d’interactions révélatrices des relations spatiales entre différents objets détectables dans une même scène. Après la détection des objets d’intérêt dans une scène, nous abordons aussi le problème, plus ambitieux, de la segmentation. / This thesis focuses on the problem of understanding visual contents, which can be images, videos or 3D contents. Understanding means that we aim at inferring semantic information about the visual content. The goal of our work is to study methods that combine two types of approaches: 1) automatic content analysis and 2) an analysis of how humans interact with the content (in other words, usage analysis). We start by reviewing the state of the art from both Computer Vision and Multimedia communities. Twenty years ago, the main approach was aiming at a fully automatic understanding of images. This approach today gives way to different forms of human intervention, whether it is through the constitution of annotated datasets, or by solving problems interactively (e.g. detection or segmentation), or by the implicit collection of information gathered from content usages. These different types of human intervention are at the heart of modern research questions: how to motivate human contributors? How to design interactive scenarii that will generate interactions that contribute to content understanding? How to check or ensure the quality of human contributions? How to aggregate human contributions? How to fuse inputs obtained from usage analysis with traditional outputs from content analysis? Our literature review addresses these questions and allows us to position the contributions of this thesis. In our first set of contributions we revisit the detection of important (or salient) regions through implicit feedback from users that either consume or produce visual contents. In 2D, we develop several interfaces of interactive video (e.g. zoomable video) in order to coordinate content analysis and usage analysis. We also generalize these results to 3D by introducing a new detector of salient regions that builds upon simultaneous video recordings of the same public artistic performance (dance show, chant, etc.) by multiple users. The second contribution of our work aims at a semantic understanding of fixed images. With this goal in mind, we use data gathered through a game, Ask’nSeek, that we created. Elementary interactions (such as clicks) together with textual input data from players are, as before, mixed with automatic analysis of images. In particular, we show the usefulness of interactions that help revealing spatial relations between different objects in a scene. After studying the problem of detecting objects on a scene, we also adress the more ambitious problem of segmentation.
129

Segmentation and Contrasting in Different Biomedical Imaging Applications / Amélioration de l'image et la segmentation : applications en imagerie médicale

Tayyab, Muhammad 02 February 2012 (has links)
Avancement dans l'acquisition d'image et le progrès dans les méthodes de traitement d'image ont apporté les mathématiciens et les informaticiens dans les domaines qui sont d'une importance énorme pour les médecins et les biologistes. Le diagnostic précoce de maladies (comme la cécité, le cancer et les problèmes digestifs) ont été des domaines d'intérêt en médecine. Développement des équipements comme microscope bi-photonique à balayage laser et microscope de fluorescence par réflexion totale interne fournit déjà une bonne idée des caractéristiques très intéressantes sur l'objet observé. Cependant, certaines images ne sont pas appropriés pour extraire suffisamment d'informations sur de cette image. Les méthodes de traitement d'image ont été fournit un bon soutien à extraire des informations utiles sur les objets d'intérêt dans ces images biologiques. Rapide méthodes de calcul permettent l'analyse complète, dans un temps très court, d'une série d'images, offrant une assez bonne idée sur les caractéristiques souhaitées. La thèse porte sur l'application de ces méthodes dans trois séries d'images destinées à trois différents types de diagnostic ou d'inférence. Tout d'abord, Images de RP-muté rétine ont été traités pour la détection des cônes, où il n'y avait pas de bâtonnets présents. Le logiciel a été capable de détecter et de compter le nombre de cônes dans chaque image. Deuxièmement, un processus de gastrulation chez la drosophile a été étudié pour observer toute la mitose et les résultats étaient cohérents avec les recherches récentes. Enfin, une autre série d'images ont été traités où la source était une vidéo à partir d'un microscopie photonique à balayage laser. Dans cette vidéo, des objets d'intérêt sont des cellules biologiques. L'idée était de suivre les cellules si elles subissent une mitose. La position de la cellule, la dispersion spatiale et parfois le contour de la membrane cellulaire sont globalement les facteurs limitant la précision dans cette vidéo. Des méthodes appropriées d'amélioration de l'image et de segmentation ont été choisies pour développer une méthode de calcul pour observer cette mitose. L'intervention humaine peut être requise pour éliminer toute inférence fausse. / Advancement in Image Acquisition Equipment and progress in Image Processing Methods have brought the mathematicians and computer scientists into areas which are of huge importance for physicians and biologists. Early diagnosis of diseases like blindness, cancer and digestive problems have been areas of interest in medicine. Development of Laser Photon Microscopy and other advanced equipment already provides a good idea of very interesting characteristics of the object being viewed. Still certain images are not suitable to extract sufficient information out of that image. Image Processing methods have been providing good support to provide useful information about the objects of interest in these biological images. Fast computational methods allow complete analysis, in a very short time, of a series of images, providing a reasonably good idea about the desired characteristics. The thesis covers application of these methods in 3 series of images intended for 3 different types of diagnosis or inference. Firstly, Images of RP-mutated retina were treated for detection of rods, where there were no cones present. The software was able to detect and count the number of cones in each frame. Secondly, a gastrulation process in drosophila was studied to observe any mitosis and results were consistent with recent research. Finally, another series of images were treated where biological cells were observed to undergo mitosis. The source was a video from a photon laser microscope. In this video, objects of interest were biological cells. The idea was to track the cells if they undergo mitosis. Cell position, spacing and sometimes contour of the cell membrane are broadly the factors limiting the accuracy in this video. Appropriate method of image enhancement and segmentation were chosen to develop a computational method to observe this mitosis. Cases where human intervention may be required have been proposed to eliminate any false inference.
130

Contribution à la représentation des hautes latitudes dans un modèle de surface : gel des sols et diagnostics de performances / Representating high latitudes in a land-surface model : soil freezing and model evaluation

Gouttevin, Isabelle 20 December 2012 (has links)
L'importance climatique des hautes latitudes est exacerbée par le contexte actuel du réchauffement climatique, de part de leur forte sensibilité à ces changements et en raison des rétroactions globales majeures qu'elles sont susceptibles d'engendrer. La modélisation offre un moyen d'estimer ces impacts dans les temps passés, présents et futurs, tout en quantifiant les incertitudes procédant des imperfections de notre connaissance de ces environnements et de leur représentation. L'amélioration et l'évaluation de la représentation des hautes latitudes dans les modèles de climat globaux répondent donc à de forts enjeux scientifiques et sociétaux : c'est dans ce cadre précis que s'inscrit mon travail de thèse. Le gel des sols est une spécificité majeure des régions circum-arctiques, porteuse d'implications climatiques aux plans thermiques, hydrologiques et biogéochimiques. Une paramétrisation des impacts hydrologiques du gel des sols a été introduite dans le schéma hydrologique multi-couches du modèle de surfaces continentales ORCHIDEE : ses effets sur le contenu en eau des sols et le régime hydrologique des principaux bassins de l'Arctique ont été évalués par comparaison à des données de terrain, révélant la plus-value d'une telle représentation mais aussi les lacunes résiduelles de la modélisation, qui touchent à l'absence de représentation des réservoirs temporaires d'eau de surface et, sans doute, d'une paramétrisation sous-maille du gel des sols. Parallèlement, une représentation des effets thermiques du gel des sols développée pour un modèle antérieur à ORCHIDEE a été révisée et évaluée à différentes échelles spatiales par comparaison à des données observationnelles : si la représentation de l'énergie de chaleur latente augmente la température des sols soumis au gel saisonnier, un biais froid subsiste dans la modélisation, imputable à une représentation imparfaite de la neige. Une étude de sensibilité conduite sur cette variable en confirme les implications thermiques mais aussi biogéochimiques à l'échelle des régions circum-arctiques, sous-tendues par les importantes quantités de matière organique que ces régions renferment. Alors que les caractéristiques de la neige sont souvent représentées comme spatialement uniformes dans les modèles de climat globaux, la simple prise en compte du caractère particulièrement isolant de la neige de taïga engendre des changements importants dans le cycle du carbone aux hautes latitudes, et souligne les incertitudes entachant notre représentation actuelle de ces écosystèmes. Les propriétés thermiques de la neige n'en sont pas l'unique vecteur, mais une évaluation détaillée de notre modélisation sur un site de permafrost arctique (station de Bayelva, Svalbard) désigne la neige comme une source majeure des incertitudes associées à notre modélisation des hautes latitudes, au travers de représentations inadaptées de son albédo, sa rugosité de surface, son contenu variable en eau liquide pouvant accommoder de l'eau de pluie. En termes hydrologiques, l'absence de représentation spécifique des zones de montagne, des caractéristiques hydrauliques des sols à granulométrie grossière du Haut-Arctique, et des nombreuses étendues d'eau libre des régions circum-arctiques, limite notre capacité à représenter raisonnablement des principales caractéristiques de l'hydrologie de surface de ces régions. Le diagnostique de ces limites définit autant de potentiels d'amélioration de la modélisation des hautes latitudes, sources possibles de développements futurs. / Focus has recently increased on high-latitude climatic processes as awareness rose about the extreme sensitivity of the Arctic to climate change and its potential for major positive climate feedbacks. Modelling offers a powerful tool to assess the climatic impact of changes in the northern high-latitude regions, as well as to quantify the range of uncertainty stemming from the limits of our knowledge and representation of these environments. My PhD project, dedicated to the improvement of a land-surface model for high-latitude regions and the evaluation of its performances, tackles therefore an issue of concern both for science and society. Soil freezing is a major physical process of boreal regions, with climatic implications. Here, a parameterization of the hydrological effects of soil freezing is developed within the multi-layer hydrological scheme of the land-surface model ORCHIDEE, and its performance is evaluated against observations at different scales, including remotely-sensed data. Taking the hydrological impact of soil freezing into account improves our representation of soil moisture and river discharges over the pan-Arctic land-surface area. However, residual inaccuracies suggest that potential for improvement lies in the representation of temporary surface water reservoirs like floodplains, surface ponding, and, possibly, the introduction of a subgrid variability in soil freezing. Hydrological modelling at high latitudes would also benefit from a specific treatment of mountainous areas and a revision of soil textural input parameters to account for abundant coarse-grained soils in the High-Arctic. Concomitantly, the thermal parameterization of soil freezing in ORCHIDEE is revised and evaluated against field data: latent heat effects yield a reduction but no suppression of a model cold bias in winter soil temperatures, part of which is imputed to the coarse representation of snow in the model. A sensitivity study performed on the insulative properties of taiga vs. tundra snow over the pan-Arctic terrestrial domain confirms the thermal implications of snow and outlines its consequences for carbon cycling at high-latitudes, calling for an appropriate representation of snow-vegetation interactions. Snow is furthermore implicated in identified flaws of the modelled surface energy balance, the components of which are precisely compared with a one-year high quality dataset collected at an Arctic permafrost site in Svalbard. Inaccuracies are diagnosed to stem from the representation of albedo, surface roughness and liquid water percolation and phase change within the snowpack. These diverse

Page generated in 0.0745 seconds