• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 155
  • 37
  • 12
  • 2
  • 1
  • 1
  • Tagged with
  • 209
  • 55
  • 54
  • 25
  • 22
  • 21
  • 18
  • 18
  • 17
  • 17
  • 16
  • 15
  • 14
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Human capital formation in Europe at the regional level - implications for economic growth / La formation du capital humain en Europe au niveau régional - implications sur la croissance économique

Hippe, Ralph 30 October 2013 (has links)
La thèse traite le sujet de la formation du capital humain en Europe au niveau régional et ses implications sur la croissance économique. Elle est caractérisée par son approche à la fois régionale, à long terme et européenne. A cet effet, je me réfère à la Théorie de la Croissance Unifiée et à la Nouvelle Economie Géographique qui sont les contributions théoriques les plus importantes dans le domaine et je construis une nouvelle grande base de données sur la formation du capital humain et d’autres facteurs à partir de nombreuses sources diverses. Pour les analyses empiriques, des méthodes spatiales et SIG ont été employées en plus des modèles économétriques standards. Ainsi, la thèse explore la formation du capital humain dans les régions du continent européen entre 1790 et 2010. Par ailleurs, elle souligne la relation entre les indicateurs du capital humain ainsi que les déterminants du capital humain et les implications du capital humain sur la croissance économique à long terme. / This thesis highlights the formation of human capital in the European regions and its implications for economic growth. It is characterised by its combined regional, long-term and European approach. To this end, I refer to Unified Growth Theory and New Economic Geography as the most important recent theoretical contributions and construct an unparalleled new and large database on regional human capital and other economic factors from numerous diverse sources. For the empirical analysis, spatial and GIS methods are employed in addition to standard econometric models. In this way, the thesis explores human capital formation in the regions of the European continent between 1790 and 2010. Moreover, it underlines the relationship between human capital proxies, the determinants of human capital and the long-run impact of human capital on economic growth.
32

(Méta)-noyaux constructifs et linéaires dans les graphes peu denses / Constructive and Linear (Meta)-Kernelisations on Sparse Graphs

Garnero, Valentin 04 July 2016 (has links)
En algorithmique et en complexité, la plus grande part de la recherche se base sur l’hypothèse que P ≠ NP (Polynomial time et Non deterministic Polynomial time), c'est-à-dire qu'il existe des problèmes dont la solution peut être vérifiée mais non construite en temps polynomial. Si cette hypothèse est admise, de nombreux problèmes naturels ne sont pas dans P (c'est-à-dire, n'admettent pas d'algorithme efficace), ce qui a conduit au développement de nombreuses branches de l'algorithmique. L'une d'elles est la complexité paramétrée. Elle propose des algorithmes exacts, dont l'analyse est faite en fonction de la taille de l'instance et d'un paramètre. Ce paramètre permet une granularité plus fine dans l'analyse de la complexité.Un algorithme sera alors considéré comme efficace s'il est à paramètre fixé, c'est-à-dire, lorsque sa complexité est exponentielle en fonction du paramètre et polynomiale en fonction de la taille de l'instance. Ces algorithmes résolvent les problèmes de la classe FPT (Fixed Parameter Tractable).L'extraction de noyaux est une technique qui permet, entre autre, d’élaborer des algorithmes à paramètre fixé. Elle peut être vue comme un pré-calcul de l'instance, avec une garantie sur la compression des données. Plus formellement, une extraction de noyau est une réduction polynomiale depuis un problème vers lui même, avec la contrainte supplémentaire que la taille du noyau (l'instance réduite) est bornée en fonction du paramètre. Pour obtenir l’algorithme à paramètre fixé, il suffit de résoudre le problème dans le noyau, par exemple par une recherche exhaustive (de complexité exponentielle, en fonction du paramètre). L’existence d'un noyau implique donc l'existence d'un algorithme à paramètre fixé, la réciproque est également vraie. Cependant, l’existence d'un algorithme à paramètre fixé efficace ne garantit pas un petit noyau, c'est a dire un noyau dont la taille est linéaire ou polynomiale. Sous certaines hypothèses, il existe des problèmes n’admettant pas de noyau (c'est-à-dire hors de FPT) et il existe des problèmes de FPT n’admettant pas de noyaux polynomiaux.Un résultat majeur dans le domaine des noyaux est la construction d'un noyau linéaire pour le problème Domination dans les graphes planaires, par Alber, Fellows et Niedermeier.Tout d'abord, la méthode de décomposition en régions proposée par Alber, Fellows et Niedermeier, a permis de construire de nombreux noyaux pour des variantes de Domination dans les graphes planaires. Cependant cette méthode comportait un certain nombre d’imprécisions, ce qui rendait les preuves invalides. Dans la première partie de notre thèse, nous présentons cette méthode sous une forme plus rigoureuse et nous l’illustrons par deux problèmes : Domination Rouge Bleue et Domination Totale.Ensuite, la méthode a été généralisée, d'une part, sur des classes de graphes plus larges (de genre borné, sans-mineur, sans-mineur-topologique), d'autre part, pour une plus grande variété de problèmes. Ces méta-résultats prouvent l’existence de noyaux linéaires ou polynomiaux pour tout problème vérifiant certaines conditions génériques, sur une classe de graphes peu denses. Cependant, pour atteindre une telle généralité, il a fallu sacrifier la constructivité des preuves : les preuves ne fournissent pas d'algorithme d'extraction constructif et la borne sur le noyau n'est pas explicite. Dans la seconde partie de notre thèse nous effectuons un premier pas vers des méta-résultats constructifs ; nous proposons un cadre général pour construire des noyaux linéaires en nous inspirant des principes de la programmation dynamique et d'un méta-résultat de Bodlaender, Fomin, Lokshtanov, Penninkx, Saurabh et Thilikos. / In the fields of Algorithmic and Complexity, a large area of research is based on the assumption that P ≠ NP(Polynomial time and Non deterministic Polynomial time), which means that there are problems for which a solution can be verified but not constructed in polynomial time. Many natural problems are not in P, which means, that they have no efficient algorithm. In order to tackle such problems, many different branches of Algorithmic have been developed. One of them is called Parametric Complexity. It consists in developing exact algorithms whose complexity is measured as a function of the size of the instance and of a parameter. Such a parameter allows a more precise analysis of the complexity. In this context, an algorithm will be considered to be efficient if it is fixed parameter tractable (fpt), that is, if it has a complexity which is exponential in the parameter and polynomial in the size of the instance. Problems that can be solved by such an algorithm form the FPT class.Kernelisation is a technical that produces fpt algorithms, among others. It can be viewed as a preprocessing of the instance, with a guarantee on the compression of the data. More formally, a kernelisation is a polynomial reduction from a problem to itself, with the additional constraint that the size of the kernel, the reduced instance, is bounded by a function of the parameter. In order to obtain an fpt algorithm, it is sufficient to solve the problem in the reduced instance, by brute-force for example (which has exponential complexity, in the parameter). Hence, the existence of a kernelisiation implies the existence of an fpt algorithm. It holds that the converse is true also. Nevertheless, the existence of an efficient fpt algorithm does not imply a small kernel, meaning a kernel with a linear or polynomial size. Under certain hypotheses, it can be proved that some problems can not have a kernel (that is, are not in FPT) and that some problems in FPT do not have a polynomial kernel.One of the main results in the field of Kernelisation is the construction of a linear kernel for the Dominating Set problem on planar graphs, by Alber, Fellows and Niedermeier.To begin with, the region decomposition method proposed by Alber, Fellows and Niedermeier has been reused many times to develop kernels for variants of Dominating Set on planar graphs. Nevertheless, this method had quite a few inaccuracies, which has invalidated the proofs. In the first part of our thesis, we present a more thorough version of this method and we illustrate it with two examples: Red Blue Dominating Set and Total Dominating Set.Next, the method has been generalised to larger classes of graphs (bounded genus, minor-free, topological-minor-free), and to larger families of problems. These meta-results prove the existence of a linear or polynomial kernel for all problems verifying some generic conditions, on a class of sparse graphs. As a price of generality, the proofs do not provide constructive algorithms and the bound on the size of the kernel is not explicit. In the second part of our thesis, we make a first step to constructive meta-results. We propose a framework to build linear kernels based on principles of dynamic programming and a meta-result of Bodlaender, Fomin, Lokshtanov, Penninkx, Saurabh and Thilikos.
33

Modélisation de l'émission micro-onde du manteau neigeux: applications en Antarctique et au Québec

Brucker, Ludovic 20 October 2009 (has links) (PDF)
La cryosphère a un rôle essentiel dans le système climatique entre autre parce qu'elle réfléchit une fraction importante de l'énergie solaire parvenant à la surface de la Terre et qu'elle contient une grande quantité d'eau douce sous forme solide. Du fait de la grande sensibilité de la cryosphère aux variables climatiques comme la température et les précipitations, les différents éléments de la cryosphère, tels que la calotte polaire Antarctique et la neige saisonnière dans les régions subarctiques, sont des indicateurs du changement climatique global. Toutefois, nos connaissances des régions polaires restent limitées par un manque d'observation in situ qui s'explique par l'isolement de ces régions et les conditions météorologiques difficiles. L'analyse de ces observations éparses peut être renforcée grâce à la télédétection spatiale et ainsi réduire les incertitudes sur les tendances climatiques observées aux hautes latitudes. En effet, la télédétection permet des observations continues et à grande échelle des régions polaires et subpolaires. <br /> La télédétection passive, en particulier dans le domaine spectral des micro-ondes, est adaptée à l'interprétation et au suivi des propriétés physiques du manteau neigeux. Effectivement, le rayonnement micro-onde émane du sol ou du manteau neigeux lui-même, puis se propage jusqu'à la surface. Ainsi, le rayonnement émergeant contient de l'information sur les variations verticales des propriétés de la neige, telles que la température ou les propriétés de microstructure (taille de grains et densité). Ces trois propriétés de la neige déterminent l'émission micro-onde d'un manteau sec. Lorsqu'il est humide, la teneur en eau liquide devient par contre la propriété dominant l'émission. Les évolutions temporelles et les variations verticales de ces différentes propriétés sont définies par la métamorphose. Leur lien avec l'émission micro-onde est considéré dans le transfert radiatif. <br /><br /> Cette thèse a pour objectif d'expliquer l'émission micro-onde de la neige par voie de modélisation afin de comprendre l'évolution des principales propriétés physiques de la neige. Le transfert radiatif dans la neige a été calculé avec les modèles multicouches Microwave Emission Model of Layered Snowpacks (MEMLS) et MultiLayered Dense Media Radiative Transfer (DMRT-ML), s'appuyant sur des approches respectivement semi-empirique et théorique. Les profils stratigraphiques de la neige utilisés en entrée ont été mesurés, estimés de façon aléatoire, modélisés avec une relation simple de la métamorphose ou avec le modèle d'évolution thermodynamique de la neige Crocus. <br /><br /> Ces modèles et approches ont été appliqués sur deux types de manteau neigeux, permanent en Antarctique et saisonnier au Québec. Dans le premier cas, l'évolution temporelle de la température de brillance a été modélisée localement, à Dôme C, à partir de mesures in situ des propriétés de la neige. Dans cette approche, l'émissivité est modélisée à partir de mesures et reste par conséquent applicable localement. Pour modéliser l'émissivité à l'échelle de l'Antarctique, différents profils synthétiques de taille de grains et de densité ont été testés. Dans tous les cas, la variation verticale de la taille de grains est apparue déterminante pour prévoir l'émissivité en polarisation verticale. Cette sensibilité a été exploitée pour estimer à l'échelle du continent cette variable glaciologique importante. Le profil de densité et les propriétés de surface déterminent quant à eux l'écart entre les polarisations verticale et horizontale. <br />L'émission micro-onde d'un manteau saisonnier au Québec a également été abordée. La spécificité de l'étude est de prévoir l'évolution temporelle de la température de brillance avec un modèle d'évolution thermodynamique de la neige couplé à un modèle de transfert radiatif micro-onde, ici Crocus-MEMLS. Cette approche a permis d'interpréter finement l'évolution temporelle des températures de brillance mesurées avec un radiomètre au sol et de mettre en doute certaines relations physiques du modèle Crocus. Les résultats ont mis en évidence la complexité du signal micro-onde pour des manteaux évoluant rapidement à des températures proches du point de fusion.
34

Multi-scalarité du phénomène feu de forêt en régions méditerranéennes françaises de 1973 à 2006

Mangiavillano, Adrien 20 November 2008 (has links) (PDF)
Les feux de forêt, landes, garrigues ou maquis constituent un « problème » extrêmement sérieux pour les régions euro-méditerranéennes. Les variations de ce phénomène complexe sont issues des interactions entre des paramètres de nature différente ; interactions qui peuvent être non-linéaires. Sans être propre à l'étude de cette non-linéarité, cette thèse démontre qu'il est possible, d'une part, d'en mesurer les effets sur les propriétés statistiques et physiques du phénomène et d'autre part, que l'auto-organisation, l'instabilité chronologique et l'irrégularité morphologique limitent intrinsèquement la prédictibilité d'un tel phénomène. Nous analysons ainsi, à partir de l'exemple des régions méditerranéennes françaises de 1973 à 2006 (base Prométhée), les différentes modalités de son émergence selon la situation géographique des lieux étudiés et les échelles temporelles et spatiales auxquelles il se réfère. Cette approche, essentiellement structurelle et statistique, est à même de compléter les travaux existants sur le sujet et donne l'opportunité d'aboutir à des indicateurs innovants pour une différenciation spatiale centrée sur la question des échelles. Aussi, l'enjeu de ce travail est majeur puisqu'il suppose de rechercher des récurrences, un ordre qui transcende les cas particuliers, tout en faisant écho à la prise en compte de l'incertitude chez les hommes de terrain, les ingénieurs, les physiciens, les climatologues et les géographes.
35

UNE DYNAMIQUE REGIONALE FONDEE SUR LA DIVERSIFICATION INDUSTRIELLE<br />L'expérience de la région de Caxias do Sul (Brésil)

Breitbach, Auréa 23 September 2003 (has links) (PDF)
Cette thèse traite du développement économique de la région de Caxias do Sul, au sud du Brésil, qui présente des particularités au regard des expériences recueillies par la littérature en matière d'économie régionale. Les récentes mutations de l'économie internationale, connues comme mondialisation, aiguisent les incertitudes et les risques encourus dans le processus de production. Dans ce contexte, la problématique posée entre spécialisation ou diversification industrielle des régions revêt une signification nouvelle. L'analyse portée sur la région de Caxias do Sul témoigne du rôle essentiel de la diversification industrielle en tant que fondement d'une croissance relativement stable durant la décennie 1990 considérée comme difficille. Bien que n'étant pas envisagé comme l'unique facteur à l'origine du dynamisme de cette région, la diversification de l'industrie permet une plus grande flexibilité face aux adversités survenues dans un contexte économique instable et hautement compétitif.
36

Étude des phénomènes d'accélération de particules dans les régions aurorales des magnétosphères

Génot, V. 30 June 1999 (has links) (PDF)
L'accélération de particules est une thématique d'astrophysique générale qui <br />peut être étudiée dans un laboratoire naturel : les régions aurorales de la <br />Terre, et plus globalement, celles des planètes magnétisées. Ces régions sont <br />en effet le siège de nombreux processus qui donnent, entre autres, naissance <br />aux aurores boréales et australes, phénomènes spectaculaires mais dont de <br />nombreux aspects restent incompris. En particulier, de multiples mesures de <br />satellites ont montré l'existence de populations de particules énergétiques <br />précipitant vers la Terre, nécessitant le maintien d'une différence de <br />potentiel électrique élevée que la plupart des modèles proposés sont incapables <br />de reproduire. D'une manière générale, comprendre l'accélération, c'est <br />comprendre une partie du couplage dynamique entre la magnétosphère, où <br />l'énergie est libérée lors des sous-orages, et l'ionosphère où l'énergie est <br />dissipée. L'étude de cette dissipation, qui opère sur de courtes échelles <br />spatiales et temporelles, constitue le thème principal de ce travail. Dans <br />ce but, nous considérons une perturbation électromagnétique, sous forme d'onde <br />d'Alfvén, se propageant le long des lignes de champ magnétique. Son <br />interaction, en région aurorale, avec les cavités de plasma, structures <br />fortement inhomogènes, conduit à l'apparition de champs électriques parallèles <br />susceptibles d'accélérer les particules, ainsi qu'à un transfert d'énergie <br />significatif des ondes vers les électrons. Finalement, cette étude permet de <br />dégager un nouveau scénario de formation des arcs auroraux. Ce travail a été <br />mené de façon analytique avant d'être traité numériquement grâce à un code <br />particulaire.
37

Mise en correspondance de pixels pour la stéréovision binoculaire par propagation d'appariements de points d'intérêt et sondage de régions

Gales, Guillaume 08 July 2011 (has links) (PDF)
La mise en correspondance stéréoscopique est un des principaux problèmes de la vi- sion par ordinateur. Elle consiste à trouver dans deux images d'une même scène, prises à des positions différentes, les couples de pixels qui sont les projections d'un même point de la scène. Durant ces vingt dernières années, de nombreuses méthodes locales et globales ont été proposées pour résoudre ce problème. Plus récemment, grâce à un pro- tocole d'évaluation de référence dans la communauté, une catégorie de méthodes fondées sur les régions a montré des performances intéressantes dans le cadre de la stéréovision binoculaire dite " small-baseline " (dont les images sont prises à des positions proches). Une contribution de ce travail porte sur un type particulier de méthode locale appelé propagation de germes. La zone de recherche des correspondants est réduite aux voisinages d'appariements fiables appelés germes, en faisant l'hypothèse que, généralement, deux pixels voisins ont des correspondants proches. Cela permet de réduire les temps de calculs et d'éviter certaines ambiguïtés. Cependant, le succès de ce type de méthode est fortement dépendant du choix de ces germes. Dans ce mémoire, nous proposons une étude de l'étape de sélection des germes. Nous nous concentrons sur la mise en correspondance de points d'intérêt. Il s'agit de points de l'image ayant des caractéristiques intéressantes pour une application donnée. Dans notre cas, nous avons besoin de pixels qui peuvent être mis en correspondance de manière sûre. Nous comparons quatorze détecteurs bien connus associés à cinq mesures de corrélation. Certaines de ces mesures sont conçues pour être robustes à un des principaux problèmes de la mise en correspondance stéréoscopique : les ruptures de profondeur. En outre, cette étude donne des conseils sur la manière de choisir les paramètres des différentes méthodes afin de trouver les meilleurs germes possibles selon des critères donnés. Ensuite, ces germes sont utilisés avec deux approches de propagation et les résultats sont évalués. Une autre contribution porte sur une nouvelle approche de mise en correspondance sté- réoscopique dense fondée sur les régions. Différentes segmentations couleur sont utilisées. Ensuite, plusieurs instances d'un modèle de surface sont calculées pour les différentes ré- gions selon des disparités initiales tirées au sort. Pour chaque pixel, chaque instance donne une disparité qui est considérée comme un vote. Finalement, la disparité qui reçoit le plus de voix est sélectionnée comme disparité finale. Cette approche est relativement simple à implémenter et s'avère efficace en donnant des résultats compétitifs vis-à-vis de l'état de l'art.
38

DEFINITION ET ETUDE DES PERFORMANCES D'UN DETECTEUR DE STRUCTURES CURVILINEAIRES. APPLICATION A LA STEREOSCOPIE ET LA DETECTION D'OBJETS FILAIRES

Lemaitre, Cedric 14 November 2008 (has links) (PDF)
Les travaux présentés dans ce manuscrit s'inscrivent dans le contexte de la mise en correspondance. En effet nous montrons l'intérêt de régions spécifiques, les régions curvilinéaires, dans le cadre des applications de mise en correspondances. Dans cette optique, nous avons développé un détecteur spécifique aux régions curvilinéaires. De plus afin de réaliser la mise en correspondance des régions, un descripteur spécifique aux régions curvilinéaires a été développé. L'évaluation du descripteur a été réalisée en deux temps. Dans un premier temps, nous avons étudié et comparé les performances de segmentation du détecteur de régions curvilinéaires, notamment dans le contexte de la segmentation des veines de la rétine. Dans un second temps, les performances du détecteur (associés à son descripteur spécifique) en termes de mise en correspondance ont été évaluées. Cette étude a été menée en utilisant la méthode de K. Mikolajczyk, cette méthodologie permet d'obtenir à la fois les performances globales du détecteur mais de le comparer avec des détecteurs dit " standards ". Les applications présentées au sein de ce manuscrit sont, elles aussi, de deux types. Dans un premier temps, nous présentons deux applications de segmentation qui sont : la détection de cordon de colle sur les culasses de moteur avant assemblage ainsi que la détection de l'aorte dans des coupes sagittales effectuées à l'aide d'imageur IRM. Le second type d'application est les applications de mise en correspondances. Dans ce champ d'application, nous avons proposés l'estimation automatique d'homographie.
39

Contribution à l'Etude des Parois Complexes en Physique du Bâtiment : Modélisation, Expérimentation et Validation Expérimentale de Complexes de Toitures incluant des Produits Minces Réfléchissants en climat tropical humide

Miranville, Frédéric 13 December 2002 (has links) (PDF)
La conception bioclimatique des enveloppes des bâtiments s'intègre dans une démarche de maîtrise de l'énergie et constitue de ce fait un enjeu primordial. Elle nécessite la connaissance des performances énergétiques des composants d'enveloppe et des systèmes associés et doit permettre d'éviter le recours à des dispositifs de chauffage ou de refroidissement, forts consommateurs d'énergie. Dans ce cadre, les technologies passives sont tout à fait indiquées, dans la mesure où elles permettent de réguler les conditions d'ambiance en utilisant des moyens naturels, sans apport énergétique supplémentaire. Les parois complexes en sont un exemple, et se présentent sous la forme d'une juxtaposition de matériaux,séparés par une ou des lames d'air. Nous nous intéressons dans ces travaux à un type particulier de paroi complexe,incluant un produit mince réfléchissant (PMR). Ces derniers sont utilisés en solation thermique des bâtiments et se présentent sous la forme de minces membranes dont les faces sont recouvertes d'aluminium. Compte-tenu de leurs propriétés thermophysiques et de leur épaisseur, ces produits n'entrent pas tous dans la définition des isolants thermiques, selon la norme NF-P-75-101. Le principale conséquence qui en découle est que leurs performances thermiques ne sont pas certifiées par les organismes de référence. En outre, leur mise en oeuvre dans une paroi nécessite la présence d'une ou plusieurs lames d'air, contiguës aux faces réfléchissantes. La paroi ainsi constituée est une paroi complexe, siège de transferts énergétiques couplés. Afin de cerner le comportement thermique d'une telle paroi, il est nécessaire de proposer une modélisation adaptée. Les remarques précédentes illustrent la double problématique des PMR, l'une à caractère réglementaire, l'autre à caractère scientifique. Afin d'apporter des éléments de réponse, une méthodologie en deux volets est proposée. Le premier est expérimental et consiste en la détermination des caractéristiques thermiques de toitures complexes intégrant des PMR, au départ d'une plate-forme expérimentale en environnement naturel ; le second traite de la modélisation d'une toiture complexe au départ d'un prototype de code de calcul dédié, s'apparentant à un code de simulation du comportement énergétique des bâtiments. Les deux volets sont conciliés dans une démarche de validation expérimentale, menant à l'évaluation des prédictions du code de calcul relativement à des données issues d'expérimentations.
40

Evolution des poussières interstellaires : apport des données de l'observatoire spatial Herschel

Arab, Heddy 28 September 2012 (has links) (PDF)
Les poussières interstellaires sont des particules solides dont les tailles sont comprises entre le nanomètre et le micron. Bien que représentant une faible proportion en masse du milieu interstellaire, elles jouent un rôle essentiel dans son évolution et de façon générale dans l'évolution des galaxies. Les poussières interstellaires sont observables dans les domaines UV et visible en extinction et de l'infrarouge au submillimétrique en émission. La conduite d'observations astrophysiques conjuguée au développement de modèles numériques de poussières et à l'étude d'analogues de grains en laboratoire permet d'affiner notre connaissance de ces particules solides. En particulier, il existe aujourd'hui de nombreuses preuves d'une évolution des grains dans le milieu interstellaire. Cependant, les processus physiques responsables de cette évolution sont aujourd'hui encore mal connus. Afin de comprendre comment évoluent les grains avec les propriétés physiques, il est nécessaire d'observer les poussières dans différents environnements. Les régions de photodissociation (PDR) sont des zones du milieu interstellaire présentant l'avantage de voir leur champ de rayonnement et leur densité locale varier sur de faibles échelles spatiales (~10- 20 arcsec). De plus, la grande variété de traceurs du gaz permet de contraindre efficacement les conditions physiques dans les PDR. Toutefois, l'émission des grains à l'équilibre thermique dans les PDR, qui domine l'émission dans l'infrarouge lointain, n'était que rarement résolue spatialement. Les instruments PACS et SPIRE, à bord de l'observatoire spatial Herschel, permettent aujourd'hui de disposer d'observations spectro-photométriques entre 70 et 500 µm, dont la résolution spatiale (comprise entre 5 et 35 arcsec) en fait des données idéales pour l'étude de l'évolution des poussières dans les PDR. Nous présentons l'analyse des observations Herschel de trois PDR, la Barre d'Orion, la Tête de Cheval et la NGC 7023 Est, caractérisées par des conditions physiques différentes. En combinant ces données aux observations Spitzer, nous pouvons étudier simultanément l'émission des poussières entre 3.6 et 500 µm à différentes positions de la PDR. Pour cela, des profils d'intensité reliant l'étoile à la PDR sont extraits à chaque longueur d'onde puis comparés spatialement. Un décalage de la position du pic d'émission dû au transfert radiatif est observé : plus la longueur d'onde est grande, plus le pic est éloigné de l'étoile excitatrice. Par contre, la comparaison entre les profils d'intensité observés et ceux calculés à partir d'un code de transfert de rayonnement couplé à un modèle de poussières correspondant aux propriétés du milieu interstellaire diffus révèle des différences liées à une évolution des grains pour chaque PDR étudiée. A la vue des écarts, nous concluons que l'abondance des PAH, plus petite composante de grains interstellaires, est plus faible dans les PDR que dans le milieu diffus suggérant la présence d'un phénomène de photo-destruction et/ou d'agrégation des PAH sur les gros grains dans les PDR. Ceci pourrait être accompagné d'une augmentation d'émissivité des gros grains liée à un mécanisme de coagulation. Les observations Herschel des PDR nous offrent également l'opportunité de nous intéresser aux variations du spectre des grains à l'équilibre thermique avec le rayonnement au travers des PDR. Un ajustement d'une loi de corps noir modifié permet d'extraire une épaisseur optique, une température et un indice spectral des grains. L'étude de ces deux derniers paramètres révèle une anticorrélation confirmant ainsi des travaux précédents. Cependant, la comparaison de la dépendance de la température et de l'indice spectral dans différentes régions montre différents comportements et exclut une dépendance universelle entre ces deux paramètres. Ce résultat ouvre de nouvelles perspectives quant à l'étude de l'évolution des poussières dans le milieu interstellaire.

Page generated in 0.062 seconds