Spelling suggestions: "subject:"coactifs"" "subject:"bioactifs""
91 |
Modeling time-dependent optical and UV correlations in active galactic nuclei / Modélisation des corrélations temporelles dans les bandes optiques et ultraviolettes dans les noyaux actifs de galaxiesRojas Lobos, Patricia 21 December 2018 (has links)
Les Noyaux actifs de galaxie (AGN) incluent les sources quasi stables les plus énergétiques connues dans l'univers jusqu'à aujourd’hui. Du fait de leur distance, de leur haute luminosité et de leur petite taille, leurs régions intérieures ne sont pas directement résolvables avec les télescopes actuels. C’est pour ces raisons que nous avons besoin de techniques d’observation indirectes et de modèles théoriques pour discerner leur structure. Dans cette optique, le rôle de la polarimétrie est crucial. Elle a été ces dernières années la méthode clé qui a permis de développer le modèle unifié des AGN et pourrait, à l’avenir, nous offrir des nouveaux éléments pour sonder les régions des AGN irrésolues. Dans cette thèse, j’ai conduit des simulations sur les transferts radiatifs relatifs aux rayonnements continus émis des différentes régions intérieures des AGN en utilisant la nouvelle technique de cartographie de réverbération polarimétrique. Ce travail a été inspiré par les recherches de Gaskell et al. (2012). Le but de cette recherche est de fournir des modèles théoriques sur les différents composants des AGN en considérant le rayonnement polarisé en fonction du temps. La polarisation induite par la diffusion a été modélisée et différentes géométries de poussières circumnucléaires ont été testées. Les résultats incluent les effets de l’agrégation des poussières et différentes compositions de poussière. Pour étendre le modèle, les effets complémentaires des vents ionisés s’étirant en direction des pôles ont également été étudiés ainsi que ceux de l’anneau de diffusion équatorial théorique, avec pour postulat qu'il explique l’angle de polarisation observé dans les pôles des AGN. Les simulations ont été exécutées en utilisant une version du code STOKES incluant la dépendance temporelle. Il sera possible d'étendre ce travail à l'avenir. Les prochaines étapes suggérées incluront des raies d'émission aux modélisations ainsi que plus de complexité concernant la géométrie et la distribution de la poussière et/ou des électrons dans les régions de diffusion. Ce travail sera important pour profiter de futures données observationnelles systématiques avec un bon échantillonnage temporel. / Active galactic nuclei (AGN) include the most powerful quasi-steady sources of energy known to date in the universe. Due to their distance, high brightness and small size, their inner regions are not directly resolvable with current telescopes. This is the reason why indirect techniques and theoretical models are needed to discern their structure. In this scenario the role of polarimetry is crucial. In the past it was the key method that led to the development of the Unified Model of AGN and in the future, it may give us new clues to probe unresolved AGN regions. In this thesis, I conducted radiative transfer simulations for continuous radiation of different inner regions of the AGN using the new technique of polarimetric reverberation mapping. This work has been inspired by the work of Gaskell et al. (2012). The goal of this research is to provide theoretical models of the different components of the AGN considering time-dependent polarized radiation. Scattering induced polarization has been modeled and different circumnuclear dust geometries have been explored. The results include the effects of clumpiness and different dust compositions. To further extend the model, the effects of additional extended ionized winds along the polar direction have also been explored as well as the putative equatorial scattering ring postulated to explain the polarization angle observed in pole-on AGN. The simulations were run using a time-dependent version of the STOKES code. It will be possible to extend this work in the future. Suggested future steps are including emission lines in the models, as well as more complexity in the geometry and distribution of dust and/or electrons in the scattering regions. This work will be important for taking advantage of systematic future observational data with good temporal sampling.
|
92 |
Contribution à la classification d'images satellitaires par approche variationnelle et équations aux dérivées partielles.Samson, Christophe 26 September 2000 (has links) (PDF)
Ce travail est consacré au développement ainsi qu'à l'implantation de deux modèles variationnels pour la classification d'images. La classification d'images, consistant à attribuer une étiquette à chaque pixel d'une image, concerne de nombreuses applications à partir du moment où cette opération intervient très souvent à la base des chaînes de traitement et d'interprétation d'images. De nombreux modèles de classification ont déjà été développés dans un cadre stochastique ou à travers des approches structurales, mais rarement dans un contexte variationnel qui a déjà montré son efficacité dans divers domaines tels que la reconstruction ou la restauration d'images. Le premier modèle que nous proposons repose sur la minimisation d'une famille de critères dont la suite de solutions converge vers une partition des données composée de classes homogènes séparées par des contours réguliers. Cette approche entre dans le cadre des problèmes à discontinuité libre (free discontinuity problems) et fait appel à des notions de convergence variationnelle telle que la théorie de la ì-convergence. La famille de fonctionnelles que nous proposons de minimiser contient un terme de régularisation, ainsi qu'un terme de classification. Lors de la convergence de cette suite de critères, le modèle change progressivement de comportement en commençant par restaurer l'image avant d'entamer le processus d'étiquetage des pixels. Parallèlement à cette approche, nous avons développé un second modèle de classification mettant en jeu un ensemble de régions et contours actifs. Nous utilisons une approche par ensembles de niveaux pour définir le critère à minimiser, cette approche ayant déjà suscité de nombreux travaux dans le cadre de la segmentation d'images. Chaque classe, et son ensemble de régions et contours associé, est défini à travers une fonction d'ensemble de niveaux. Le critère contient des termes reliés à l'information sur les régions ainsi qu'à l'information sur les contours. Nous aboutissons à la résolution d'un système d'équations aux dérivées partielles couplées et plongées dans un schéma dynamique. L'évolution de chaque région est guidée par un jeu de forces permettant d'obtenir une partition de l'image composée de classes homogènes et dont les frontières sont lisses. Nous avons mené des expériences sur de nombreuses données synthétiques ainsi que sur des images satellitaires SPOT. Nous avons également étendu ces deux modèles au cas de données multispectrales et obtenu des résultats sur des données SPOT XS que nous avons comparé à ceux obtenus par différents modèles.
|
93 |
Quelques extensions des level sets et des graph cuts et leurs applications à la segmentation d'images et de vidéosJuan, Olivier 05 1900 (has links) (PDF)
Les techniques de traitement d'image sont maintenant largement répandues dans une grande quantité de domaines: comme l'imagerie médicale, la post-production de films, les jeux... La détection et l'extraction automatique de régions d'intérêt à l'intérieur d'une image, d'un volume ou d'une vidéo est réel challenge puisqu'il représente un point de départ pour un grand nombre d'applications en traitement d'image. Cependant beaucoup de techniques développées pendant ces dernières années et les méthodes de l'état de l'art souffrent de quelques inconvénients: la méthode des ensembles de niveaux fournit seulement un minimum local tandis que la méthode de coupes de graphe vient de la communauté combinatoire et pourrait tirer profit de la spécificité des problèmes de traitement d'image. Dans cette thèse, nous proposons deux prolongements des méthodes précédemment citées afin de réduire ou enlever ces inconvénients. Nous discutons d'abord les méthodes existantes et montrons comment elles sont liées au problème de segmentation via une formulation énergétique. Nous présentons ensuite des perturbations stochastiques a la méthode des ensembles de niveaux et nous établissons un cadre plus générique: les ensembles de niveaux stochastiques (SLS). Plus tard nous fournissons une application directe du SLS à la segmentation d'image et montrons qu'elle fournit une meilleure minimisation des énergies. Fondamentalement, il permet aux contours de s'échapper des minima locaux. Nous proposons ensuite une nouvelle formulation d'un algorithme existant des coupes de graphe afin d'introduire de nouveaux concepts intéressant pour la communauté de traitement d'image: comme l'initialisation de l'algorithme pour l'amélioration de vitesse. Nous fournissons également une nouvelle approche pour l'extraction de couches d'une vidéo par segmentation du mouvement et qui extrait à la fois les couches visibles et cachées présentes.
|
94 |
L'accrétion et l'émission à proximité des trous noirs supermassifs dans les quasars et les NAG: Modélisation du spectre UV-XGoosmann, René 02 February 2006 (has links) (PDF)
La dernière génération de satellites X, comme XMM-Newton ou Chandra, a beaucoup enrichi notre savoir sur les propriétés du rayonnement X des Noyaux Actifs de Galaxies (NAG). La spectroscopie détaillée et les observations longues de plusieurs centaines de milliers de secondes ont ouvert de nouvelles perspectives sur les mécanismes de la production du rayonnement X, de sa modification par la matière située sur son chemin, et sur sa variabilité.<br /><br />Dans ma thèse, je présente des modèles de transfert de rayonnement thermique pour les NAG dans les domaines spectraux de l'extrême UV et des X. Les modèles prennent en considération plusieurs aspects des propriétés X observées: la composante du 'reprocessing', la variabilité et les flares X, ainsi que les effets du 'warm absorber'. Concernant le reprocessing, je modélise en détail des flares X en supposant des reconnexions magnétiques au-dessus du disque d'accrétion. Ces événements sont supposés être similaires aux flares solaires. Ils produisent des sources lumineuses et compactes émettant du rayonnement X dur et créant des taches chaudes sur le disque sous-jacent. J'évalue les propriétés physiques du milieu du disque à travers la tache et je calcule des spectres pour le rayonnement ré-émis en fonction de la position dans la tache et de la ligne de visée locale. Je fais varier la masse du trou noir, son taux d'accrétion, et son paramètre de rotation en évaluant des taches à plusieurs distances du trou noir et pour des phases orbitales différentes. Je calcule aussi des spectres vus par un observateur lointain en appliquant un traitement complet de relativité qui est basé sur une technique du tracés de rayons. Je fournis des simulations de l'évolution spectrale à laquelle on s'attend pour des flares particuliers, en tenant compte des délais causés par la distance entre la source compacte et différents endroits de la tache chaude. Les modèles du flare sont effectués en supposant un disque d'accrétion sous-jacent qui est à l'équilibre hydrostatique. La durée du flare est supposée être par un facteur significatif moins longue que l'échelle de temps dynamique du disque, afin que sa structure verticale reste constante pendant toute la période du flare.<br /><br />Des observations récentes de la galaxie Seyfert-1 MCG -6-30-15 avec XMM-Newton ont montré une courbe du lumière qui contient un flare lumineux et symétrique pendant environ 2000 secondes. Pour ce flare, Ponti et al. (2004) présentent une analyse temporelle à l'aide des fonctions d'auto-corrélation en dérivant des délais entre des bandes d'énergie différentes. Je suggère un modèle simple qui décrit ces délais en supposant que l'observateur détecte le rayonnement primaire et le reprocessing comme pulses consécutifs. Ce modèle reproduit les délais observés dans MCG -6-30-15 d'une manière qualitativement correcte, et il permet une estimation de la distance entre la source compacte du flare et la surface du disque.<br /><br />En utilisant les résultats de la modélisation d'un flare particulier, on effectue des simulations Monte-Carlo pour des distributions de flares répartis sur le disque. Le spectre de variabilité rms calculé est construit sur la base des ces simulations pour différentes distributions radiales de la luminosité du disque et pour différents paramètres de rotation du trou noir. En appliquant notre modèle au spectre rms observé, nous apportons à ces paramètres des contraintes pour le cas de MCG -6-30-15.<br /><br />Enfin, nous étudions la modification du rayonnement X dans des régions plus lointaines de l'objet central grâce à une modélisation du warm absorber. Une grille de modèles est calculée pour un warm absorber en équilibre de pression totale, comme l'a suggéré récemment l'observation de la galaxie Seyfert-1 NGC 3783. Nous montrons les tendances générales de la stratification du milieu et du spectre absorbé qui en résulte en faisant varier la pente du spectre incident, le paramètre d'ionisation, et la densité de colonne du warm absorber.<br />_______________<br />Référence: Ponti, G., Cappi, M., Dadina, M., & Malaguti, G. 2004, A&A, 417, 451
|
95 |
ARFANet : Une nouvelle approche pour les réseaux actifsMokhtari, Amdjed 30 September 2005 (has links) (PDF)
Le réseau Internet enregistre ces dernières années une mutation au niveau haut de sa hiérarchie, spécialement sur la nature<br />des applications clientes, des protocoles, des services et des flux. Seules les couches basses restent rigides et obéissent fidèlement<br />à des mécanismes datant de la création du réseau Internet.<br />L'enjeu économique et le marché financier qui s'est tissé autour de l'infrastructure actuelle rendent difficilement le passage<br />à l'échelle mondiale de nouveaux protocoles.<br />Les réseaux actifs sont une alternative envisageable qui permet de surpasser rapidement et efficacement ce blocage en prévision de <br />la saturation du réseau à la suite de l'évolution incessante<br />de l'Internet en termes du nombre croissant d'utilisateurs et de services.<br />Dans un réseau actif, les traitements à effectuer dans les différents<br />noeuds peuvent être adaptés aux besoins de l'utilisateur et/ou de <br />l'application elle-même. Les fonctionnalités spécifiques à un<br />utilisateur ou à une application sont chargées dans les noeuds du<br />réseau sous forme de méthodes ou de petits<br />programmes. Lorsqu'un paquet de données de l'utilisateur arrive aux noeuds spécifiés, son en-tête<br />est évaluée et le programme approprié est exécuté sur le contenu du paquet.<br /><br />Nous avons développé une nouvelle infrastructure de réseaux actifs, appelée ARFANet <br />(Active Rule Framework for Active Networks), basée sur la notion de règles actives. <br />Dans ce contexte, une application peut être décrite comme un ensemble de règles<br />actives, où chaque règle est définie sous la forme d'un tuple Evènement-Condition-Action (ECA).<br />L'exécution de l'application consiste alors à détecter les<br />évènements, évaluer les conditions et lancer les actions<br />correspondantes. La forme ECA est fondée exclusivement sur un concept événementiel et rend les règles actives des candidates<br />potentielles pour les applications réseau qui doivent réagir aux événements survenant au sein du réseau tels l'arrivée d'un paquet, <br />la formation d'un goulot d'étranglement ou d'une congestion, la rupture d'un lien, etc.<br /><br />Deux aspects très importants dans les réseaux actifs et leur émergence sont la distribution <br />du code actif et la sécurité.<br />Nous avons défini la notion de serveur de code et d'identification (CISS) qui permet le stockage de code et<br />son identification. Avec ce serveur nous pouvons appliquer toutes les techniques de sécurité impliquant tous les acteurs<br />liés au processus de la distribution tels que le développeur, les utilisateurs et le code lui-même.<br />Les tâches de sécurité ne sont plus du ressort des noeuds mais déléguées à ce serveur, ainsi les performances des<br />noeuds ne sont pas altérées.<br /><br />Par ailleurs nous avons constaté la nécessité d'introduire plusieurs serveurs d'identification et de stockage de code<br />dans les réseaux de grande envergure. La gestion de la base de codes distribuée doit prendre en compte toutes<br />les spécificités des réseaux actifs. Nous avons également concentré une grande partie de nos efforts à l'évaluation des performances d'un noeud de l'infrastructure <br />ARFANet qui nous a amenés à modéliser ce noeud, dans une première phase, <br />en utilisant la méthode analytique PEPA, puis le simuler, dans une seconde phase, avec l'outil SimJava.
|
96 |
Modélisation de l'émission X et Gamma des objets compacts par les méthodes Monte-CarloMalzac, Julien 08 October 1999 (has links) (PDF)
L'étude des processus de production de rayonnement de haute énergie dans les plasmas relativistes constituant l'environnement des objets compacts nécéssite des outils numériques relativement lourds. Je présente des codes dédiés à la simulation de ces processus (diffusions Compton multiples, production et annihilation de paires Èlectron-positon, raie de fluorescence du fer...). D'une part, des codes basés sur des méthodes Monte-Carlo standards (linéaires) permettent de calculer le spectre Èmis par Comptonisation dans un plasma chaud ou réflexion sur de la matière froide. Ces calculs sont effectuÈs pour une géométrie et une distribution des électrons fixée. D'autre part, un code Monte-Carlo nonlinéaire a été développé. Ce code évite les hypothèses sur la distribution des électrons (ou paires) qui est calculée de manière autocohérente en utilisant à la fois le bilan énergétique et le bilan de création/annihilation des paires, et en tenant compte du couplage avec la matière froide présente dans l'environnement de la région active. Les paramètres libres sont alors la puissance fournie au plasma et la façon dont cette énergie est fournie (chauffage thermique, injection/accélération de particules à haute énergie...). Les spectres calculés, comparés aux observations, donnent des informations sur la distribution des particules et les processus de dissipation d'énergie. Ce code permet également d'étudier des situations hors équilibre, dépendant du temps et notamment de calculer les courbes de lumière associées à une perturbation. Des applications aux différents modèles proposès pour rendre compte des observations X et gamma sont présentées (modèles thermiques, non-thermiques, modèle d'illumination anisotrope et modèles de couronne thermique radiativement couplèe au disque d'accrétion). Je montre comment de tels outils numériques peuvent mettre des contraintes sur la géométrie et les conditions physiques qui règnent dans les sources compactes de rayonnement X et gamma.
|
97 |
L'expérience CELESTE: Reconversion d'une centrale solaire pour l'astronomie gamma. Première observation de la Nébuleuse du Crabe et du Blazar Markarian~421 entre 30 et 300 GeV.de Naurois, Mathieu 10 May 2000 (has links) (PDF)
Le dispositif CELESTE désigne la transformation de la centrale solaire de Thémis (Pyrénées orientales) en un vaste télescope pour l'astronomie des très hautes énergies; le nom avait été proposé par Eric Paré, inventeur du projet, et directeur de cette thèse jusqu'à son décès accidentel en Juillet 1998. La thèse décrit le long travail de mise en place et de démarrage du projet basé sur un vaste dispositif optique placé en haut de la tour solaire pour détecter la lumière réfléchie par les héliostats. On observe ainsi, par nuits sans lune, les gerbes atmosphériques produites par les rayons gamma en provenance du cosmos. La thèse se conclut par les premières observations jamais faites de rayons gamma aux énergies d'environ 50 GeV provenant d'une part d'une source Galactique, la nébuleuse du Crabe, et d'autre part d'une source extra-galactique, un trou noir supermassif, Markarian~421.
|
98 |
Étude du dopage de catalyseurs de déshydrogénation oxydante de l'éthane et du propaneSavova, Bistra 11 December 2009 (has links) (PDF)
Les réactions de déshydrogénation oxydante du propane et de l'éthane ont été étudiées respectivement sur des catalyseurs à base d'oxydes alcalino-terreux (OAT) dopés néodyme et des catalyseurs à base d'oxyde de nickel dopés par différents métaux. Deux méthodes de préparation des solides OAT dopés au néodyme ont été comparées. La caractérisation par analyses DRX montre la formation de solutions solides avec des défauts (lacunes, dislocations). La formation d'agglomérats de néodyme a été également observée. Les tests catalytiques réalisés montrent que le dopage au néodyme augmente la conversion du propane avec simultanément une augmentation de la sélectivité. Les catalyseurs à base d'oxyde de nickel sont eux très actifs dans la réaction de déshydrogénation oxydante de l'éthane. L'étude réalisée montre l'absence de formation de solutions solides étendues avec les dopants. L'addition de niobium et des ions oxalates permet l'isolation des sites actifs qui sont des ions O- et entraine une baisse d'activité mais conjointement une forte amélioration de la sélectivité en éthylène. De plus, elle modifie la texture de NiO en augmentant sa surface spécifique ce qui permet d'obtenir de meilleures conversions. La mise au point de ces catalyseurs est compromise par une désactivation: la caractérisation des solides avant et après désactivation par DRX, Raman, XPS, TEM, EDX et TPD de O2 montre que cette désactivation est due à la réduction lente et irréversible des ions Ni3+ entrainant la diminution du nombre des espèces O-. La formation de la phase NiNb2O6 lors de la désactivation a été également observée.
|
99 |
Valorisation et reporting du goodwill : enjeux théoriques et empiriquesPaugam, Luc 01 December 2011 (has links) (PDF)
Le goodwill est, par nature, un objet complexe en ce qu'il englobe deux perspectives : la première est économique - il s'agit de la valeur présente des profits économiques espérés - la seconde est comptable - excès du prix payé par un acquéreur sur la juste valeur des actifs nets acquis. Ces deux acceptions du goodwill étant imbriquées, nous les analysons en décomposant le goodwill comptable - surpaiement, goodwill généré en interne (GGI) et synergies externes. Notre analyse fait émerger, d'une part, des questions de valorisation du goodwill économique, et de l'autre, des enjeux de reporting du goodwill comptable. Sur la première question, nous avançons une proposition sur les fondements de la mesure du GGI : un modèle alternatif de valorisation, de nature combinatoire, fondé sur la théorie des capacités (Choquet, 1953) et relaxant le postulat standard d'additivité, est testé sur un échantillon d'entreprises cotées américaines. Les performances de ce modèle non-additif s'avèrent supérieures à celles du modèle additif d'Ohlson (1995). Sur la question du reporting, nous analysons l'impact sur le coût des capitaux propres de l'information comptable communiquée au titre des tests de dépréciation du goodwill (IAS 36, FAS 142). Une association négative est établie entre information pertinente et engagement de transparence, et coût du capital. Nous examinons les déterminants et les conséquences de la communication de la valorisation initiale du goodwill et de l'affectation du prix d'acquisition (IFRS 3, FAS 141). L'identification des immatériels réduit l'asymétrie informationnelle entre managers et investisseurs et les erreurs de valorisation de ces derniers.
|
100 |
Contribution à l'étude de propriétés interfaciales d'alcanes confinés par simulation moléculaire de type Monte Carlo.Knorst-Fouran, Auriane 28 September 2010 (has links) (PDF)
Ce travail concerne la modélisation de propriétés interfaciales d'alcanes linéaires confinés dans des pores plan/plan, telles que la quantité adsorbée ou la tension interfaciale par la simulation moléculaire de type Monte Carlo. Les calculs ont été réalisés dans les conditions thermodynamiques variées allant de pressions et températures très faibles jusqu'à des valeurs élevées rencontrées typiquement dans les réservoirs. Nous avons mené une étude de sensibilité concernant trois potentiels d'interaction classiquement utilisés, regardé l'influence du confinement géométrique et des conditions thermodynamiques sur le méthane confiné, calculé la chaleur isostérique d'adsorption et mis en évidence le phénomène de condensation capillaire. Les résultats d'isotherme d'adsorption obtenus par simulation ont été confrontés avec succès à des résultats expérimentaux. Cette comparaison a également permis de mettre en évidence l'importance de la caractérisation du milieu poreux lors de l'estimation de l'isotherme d'adsorption. Le comportement d'alcanes linéaires de plus longue chaine a également été étudié.
|
Page generated in 0.0743 seconds