• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 200
  • 83
  • 12
  • 1
  • Tagged with
  • 303
  • 81
  • 71
  • 38
  • 35
  • 31
  • 29
  • 28
  • 27
  • 25
  • 25
  • 24
  • 23
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

L'accrétion et l'émission à proximité des trous noirs supermassifs dans les quasars et les NAG: Modélisation du spectre UV-X

Goosmann, René 02 February 2006 (has links) (PDF)
La dernière génération de satellites X, comme XMM-Newton ou Chandra, a beaucoup enrichi notre savoir sur les propriétés du rayonnement X des Noyaux Actifs de Galaxies (NAG). La spectroscopie détaillée et les observations longues de plusieurs centaines de milliers de secondes ont ouvert de nouvelles perspectives sur les mécanismes de la production du rayonnement X, de sa modification par la matière située sur son chemin, et sur sa variabilité.<br /><br />Dans ma thèse, je présente des modèles de transfert de rayonnement thermique pour les NAG dans les domaines spectraux de l'extrême UV et des X. Les modèles prennent en considération plusieurs aspects des propriétés X observées: la composante du 'reprocessing', la variabilité et les flares X, ainsi que les effets du 'warm absorber'. Concernant le reprocessing, je modélise en détail des flares X en supposant des reconnexions magnétiques au-dessus du disque d'accrétion. Ces événements sont supposés être similaires aux flares solaires. Ils produisent des sources lumineuses et compactes émettant du rayonnement X dur et créant des taches chaudes sur le disque sous-jacent. J'évalue les propriétés physiques du milieu du disque à travers la tache et je calcule des spectres pour le rayonnement ré-émis en fonction de la position dans la tache et de la ligne de visée locale. Je fais varier la masse du trou noir, son taux d'accrétion, et son paramètre de rotation en évaluant des taches à plusieurs distances du trou noir et pour des phases orbitales différentes. Je calcule aussi des spectres vus par un observateur lointain en appliquant un traitement complet de relativité qui est basé sur une technique du tracés de rayons. Je fournis des simulations de l'évolution spectrale à laquelle on s'attend pour des flares particuliers, en tenant compte des délais causés par la distance entre la source compacte et différents endroits de la tache chaude. Les modèles du flare sont effectués en supposant un disque d'accrétion sous-jacent qui est à l'équilibre hydrostatique. La durée du flare est supposée être par un facteur significatif moins longue que l'échelle de temps dynamique du disque, afin que sa structure verticale reste constante pendant toute la période du flare.<br /><br />Des observations récentes de la galaxie Seyfert-1 MCG -6-30-15 avec XMM-Newton ont montré une courbe du lumière qui contient un flare lumineux et symétrique pendant environ 2000 secondes. Pour ce flare, Ponti et al. (2004) présentent une analyse temporelle à l'aide des fonctions d'auto-corrélation en dérivant des délais entre des bandes d'énergie différentes. Je suggère un modèle simple qui décrit ces délais en supposant que l'observateur détecte le rayonnement primaire et le reprocessing comme pulses consécutifs. Ce modèle reproduit les délais observés dans MCG -6-30-15 d'une manière qualitativement correcte, et il permet une estimation de la distance entre la source compacte du flare et la surface du disque.<br /><br />En utilisant les résultats de la modélisation d'un flare particulier, on effectue des simulations Monte-Carlo pour des distributions de flares répartis sur le disque. Le spectre de variabilité rms calculé est construit sur la base des ces simulations pour différentes distributions radiales de la luminosité du disque et pour différents paramètres de rotation du trou noir. En appliquant notre modèle au spectre rms observé, nous apportons à ces paramètres des contraintes pour le cas de MCG -6-30-15.<br /><br />Enfin, nous étudions la modification du rayonnement X dans des régions plus lointaines de l'objet central grâce à une modélisation du warm absorber. Une grille de modèles est calculée pour un warm absorber en équilibre de pression totale, comme l'a suggéré récemment l'observation de la galaxie Seyfert-1 NGC 3783. Nous montrons les tendances générales de la stratification du milieu et du spectre absorbé qui en résulte en faisant varier la pente du spectre incident, le paramètre d'ionisation, et la densité de colonne du warm absorber.<br />_______________<br />Référence: Ponti, G., Cappi, M., Dadina, M., & Malaguti, G. 2004, A&A, 417, 451
92

ARFANet : Une nouvelle approche pour les réseaux actifs

Mokhtari, Amdjed 30 September 2005 (has links) (PDF)
Le réseau Internet enregistre ces dernières années une mutation au niveau haut de sa hiérarchie, spécialement sur la nature<br />des applications clientes, des protocoles, des services et des flux. Seules les couches basses restent rigides et obéissent fidèlement<br />à des mécanismes datant de la création du réseau Internet.<br />L'enjeu économique et le marché financier qui s'est tissé autour de l'infrastructure actuelle rendent difficilement le passage<br />à l'échelle mondiale de nouveaux protocoles.<br />Les réseaux actifs sont une alternative envisageable qui permet de surpasser rapidement et efficacement ce blocage en prévision de <br />la saturation du réseau à la suite de l'évolution incessante<br />de l'Internet en termes du nombre croissant d'utilisateurs et de services.<br />Dans un réseau actif, les traitements à effectuer dans les différents<br />noeuds peuvent être adaptés aux besoins de l'utilisateur et/ou de <br />l'application elle-même. Les fonctionnalités spécifiques à un<br />utilisateur ou à une application sont chargées dans les noeuds du<br />réseau sous forme de méthodes ou de petits<br />programmes. Lorsqu'un paquet de données de l'utilisateur arrive aux noeuds spécifiés, son en-tête<br />est évaluée et le programme approprié est exécuté sur le contenu du paquet.<br /><br />Nous avons développé une nouvelle infrastructure de réseaux actifs, appelée ARFANet <br />(Active Rule Framework for Active Networks), basée sur la notion de règles actives. <br />Dans ce contexte, une application peut être décrite comme un ensemble de règles<br />actives, où chaque règle est définie sous la forme d'un tuple Evènement-Condition-Action (ECA).<br />L'exécution de l'application consiste alors à détecter les<br />évènements, évaluer les conditions et lancer les actions<br />correspondantes. La forme ECA est fondée exclusivement sur un concept événementiel et rend les règles actives des candidates<br />potentielles pour les applications réseau qui doivent réagir aux événements survenant au sein du réseau tels l'arrivée d'un paquet, <br />la formation d'un goulot d'étranglement ou d'une congestion, la rupture d'un lien, etc.<br /><br />Deux aspects très importants dans les réseaux actifs et leur émergence sont la distribution <br />du code actif et la sécurité.<br />Nous avons défini la notion de serveur de code et d'identification (CISS) qui permet le stockage de code et<br />son identification. Avec ce serveur nous pouvons appliquer toutes les techniques de sécurité impliquant tous les acteurs<br />liés au processus de la distribution tels que le développeur, les utilisateurs et le code lui-même.<br />Les tâches de sécurité ne sont plus du ressort des noeuds mais déléguées à ce serveur, ainsi les performances des<br />noeuds ne sont pas altérées.<br /><br />Par ailleurs nous avons constaté la nécessité d'introduire plusieurs serveurs d'identification et de stockage de code<br />dans les réseaux de grande envergure. La gestion de la base de codes distribuée doit prendre en compte toutes<br />les spécificités des réseaux actifs. Nous avons également concentré une grande partie de nos efforts à l'évaluation des performances d'un noeud de l'infrastructure <br />ARFANet qui nous a amenés à modéliser ce noeud, dans une première phase, <br />en utilisant la méthode analytique PEPA, puis le simuler, dans une seconde phase, avec l'outil SimJava.
93

Modélisation de l'émission X et Gamma des objets compacts par les méthodes Monte-Carlo

Malzac, Julien 08 October 1999 (has links) (PDF)
L'étude des processus de production de rayonnement de haute énergie dans les plasmas relativistes constituant l'environnement des objets compacts nécéssite des outils numériques relativement lourds. Je présente des codes dédiés à la simulation de ces processus (diffusions Compton multiples, production et annihilation de paires Èlectron-positon, raie de fluorescence du fer...). D'une part, des codes basés sur des méthodes Monte-Carlo standards (linéaires) permettent de calculer le spectre Èmis par Comptonisation dans un plasma chaud ou réflexion sur de la matière froide. Ces calculs sont effectuÈs pour une géométrie et une distribution des électrons fixée. D'autre part, un code Monte-Carlo nonlinéaire a été développé. Ce code évite les hypothèses sur la distribution des électrons (ou paires) qui est calculée de manière autocohérente en utilisant à la fois le bilan énergétique et le bilan de création/annihilation des paires, et en tenant compte du couplage avec la matière froide présente dans l'environnement de la région active. Les paramètres libres sont alors la puissance fournie au plasma et la façon dont cette énergie est fournie (chauffage thermique, injection/accélération de particules à haute énergie...). Les spectres calculés, comparés aux observations, donnent des informations sur la distribution des particules et les processus de dissipation d'énergie. Ce code permet également d'étudier des situations hors équilibre, dépendant du temps et notamment de calculer les courbes de lumière associées à une perturbation. Des applications aux différents modèles proposès pour rendre compte des observations X et gamma sont présentées (modèles thermiques, non-thermiques, modèle d'illumination anisotrope et modèles de couronne thermique radiativement couplèe au disque d'accrétion). Je montre comment de tels outils numériques peuvent mettre des contraintes sur la géométrie et les conditions physiques qui règnent dans les sources compactes de rayonnement X et gamma.
94

L'expérience CELESTE: Reconversion d'une centrale solaire pour l'astronomie gamma. Première observation de la Nébuleuse du Crabe et du Blazar Markarian~421 entre 30 et 300 GeV.

de Naurois, Mathieu 10 May 2000 (has links) (PDF)
Le dispositif CELESTE désigne la transformation de la centrale solaire de Thémis (Pyrénées orientales) en un vaste télescope pour l'astronomie des très hautes énergies; le nom avait été proposé par Eric Paré, inventeur du projet, et directeur de cette thèse jusqu'à son décès accidentel en Juillet 1998. La thèse décrit le long travail de mise en place et de démarrage du projet basé sur un vaste dispositif optique placé en haut de la tour solaire pour détecter la lumière réfléchie par les héliostats. On observe ainsi, par nuits sans lune, les gerbes atmosphériques produites par les rayons gamma en provenance du cosmos. La thèse se conclut par les premières observations jamais faites de rayons gamma aux énergies d'environ 50 GeV provenant d'une part d'une source Galactique, la nébuleuse du Crabe, et d'autre part d'une source extra-galactique, un trou noir supermassif, Markarian~421.
95

Étude du dopage de catalyseurs de déshydrogénation oxydante de l'éthane et du propane

Savova, Bistra 11 December 2009 (has links) (PDF)
Les réactions de déshydrogénation oxydante du propane et de l'éthane ont été étudiées respectivement sur des catalyseurs à base d'oxydes alcalino-terreux (OAT) dopés néodyme et des catalyseurs à base d'oxyde de nickel dopés par différents métaux. Deux méthodes de préparation des solides OAT dopés au néodyme ont été comparées. La caractérisation par analyses DRX montre la formation de solutions solides avec des défauts (lacunes, dislocations). La formation d'agglomérats de néodyme a été également observée. Les tests catalytiques réalisés montrent que le dopage au néodyme augmente la conversion du propane avec simultanément une augmentation de la sélectivité. Les catalyseurs à base d'oxyde de nickel sont eux très actifs dans la réaction de déshydrogénation oxydante de l'éthane. L'étude réalisée montre l'absence de formation de solutions solides étendues avec les dopants. L'addition de niobium et des ions oxalates permet l'isolation des sites actifs qui sont des ions O- et entraine une baisse d'activité mais conjointement une forte amélioration de la sélectivité en éthylène. De plus, elle modifie la texture de NiO en augmentant sa surface spécifique ce qui permet d'obtenir de meilleures conversions. La mise au point de ces catalyseurs est compromise par une désactivation: la caractérisation des solides avant et après désactivation par DRX, Raman, XPS, TEM, EDX et TPD de O2 montre que cette désactivation est due à la réduction lente et irréversible des ions Ni3+ entrainant la diminution du nombre des espèces O-. La formation de la phase NiNb2O6 lors de la désactivation a été également observée.
96

Valorisation et reporting du goodwill : enjeux théoriques et empiriques

Paugam, Luc 01 December 2011 (has links) (PDF)
Le goodwill est, par nature, un objet complexe en ce qu'il englobe deux perspectives : la première est économique - il s'agit de la valeur présente des profits économiques espérés - la seconde est comptable - excès du prix payé par un acquéreur sur la juste valeur des actifs nets acquis. Ces deux acceptions du goodwill étant imbriquées, nous les analysons en décomposant le goodwill comptable - surpaiement, goodwill généré en interne (GGI) et synergies externes. Notre analyse fait émerger, d'une part, des questions de valorisation du goodwill économique, et de l'autre, des enjeux de reporting du goodwill comptable. Sur la première question, nous avançons une proposition sur les fondements de la mesure du GGI : un modèle alternatif de valorisation, de nature combinatoire, fondé sur la théorie des capacités (Choquet, 1953) et relaxant le postulat standard d'additivité, est testé sur un échantillon d'entreprises cotées américaines. Les performances de ce modèle non-additif s'avèrent supérieures à celles du modèle additif d'Ohlson (1995). Sur la question du reporting, nous analysons l'impact sur le coût des capitaux propres de l'information comptable communiquée au titre des tests de dépréciation du goodwill (IAS 36, FAS 142). Une association négative est établie entre information pertinente et engagement de transparence, et coût du capital. Nous examinons les déterminants et les conséquences de la communication de la valorisation initiale du goodwill et de l'affectation du prix d'acquisition (IFRS 3, FAS 141). L'identification des immatériels réduit l'asymétrie informationnelle entre managers et investisseurs et les erreurs de valorisation de ces derniers.
97

Contribution à l'étude de propriétés interfaciales d'alcanes confinés par simulation moléculaire de type Monte Carlo.

Knorst-Fouran, Auriane 28 September 2010 (has links) (PDF)
Ce travail concerne la modélisation de propriétés interfaciales d'alcanes linéaires confinés dans des pores plan/plan, telles que la quantité adsorbée ou la tension interfaciale par la simulation moléculaire de type Monte Carlo. Les calculs ont été réalisés dans les conditions thermodynamiques variées allant de pressions et températures très faibles jusqu'à des valeurs élevées rencontrées typiquement dans les réservoirs. Nous avons mené une étude de sensibilité concernant trois potentiels d'interaction classiquement utilisés, regardé l'influence du confinement géométrique et des conditions thermodynamiques sur le méthane confiné, calculé la chaleur isostérique d'adsorption et mis en évidence le phénomène de condensation capillaire. Les résultats d'isotherme d'adsorption obtenus par simulation ont été confrontés avec succès à des résultats expérimentaux. Cette comparaison a également permis de mettre en évidence l'importance de la caractérisation du milieu poreux lors de l'estimation de l'isotherme d'adsorption. Le comportement d'alcanes linéaires de plus longue chaine a également été étudié.
98

Segmentation par contours actifs en imagerie médicale dynamique : application en cardiologie nucléaire

Debreuve, Eric 27 October 2000 (has links) (PDF)
En imagerie d'émission, la médecine nucléaire fournit une information fonctionnelle sur l'organe étudié. En imagerie de transmission, elle fournit une information anatomique, destinée par exemple à corriger certains facteurs de dégradation des images d'émission. Qu'il s'agisse d'une image d'émission ou de transmission, il est utile de savoir extraire de façon automatique ou semi-automatique les éléments pertinents : le ou les organes d'intérêt et le pourtour du patient lorsque le champ d'acquisition est large. Voilà le but des méthodes de segmentation. Nous avons développé deux méthodes de segmentation par contours actifs, le point crucial étant la définition de leur vitesse d'évolution. Elles ont été mises en œuvre par les ensembles de niveaux. En premier lieu, nous nous sommes intéressés à l'imagerie statique de transmission de la région thoracique. La vitesse d'évolution, définie heuristiquement, fait directement intervenir les projections acquises. La carte de transmission segmentée, obtenue ainsi sans reconstruction, doit servir à améliorer la correction de l'atténuation photonique subie par les images cardiaques d'émission. Puis nous avons étudié la segmentation des séquences cardiaques -- d'émission -- synchronisées par électrocardiogramme. La méthode de segmentation spatio-temporelle développée résulte de la minimisation d'un critère variationnel exploitant d'un bloc l'ensemble de la séquence. La segmentation obtenue doit servir au calcul de paramètres physiologiques. Nous l'avons illustré en calculant la fraction d'éjection. Pour terminer, nous avons exploité les propriétés des ensembles de niveaux afin de développer une méthode géométrique de recalage, non rigide et non paramétrique. Nous l'avons appliquée à la compensation cinétique des images des séquences cardiaques synchronisées. Les images recalées ont alors été ajoutées de sorte à produire une image dont le niveau de bruit est comparable à celui d'une image cardiaque statique sans toutefois souffrir de flou cinétique.
99

Essais en Macroéconomie Financière

Ghattassi, Imen 13 December 2006 (has links) (PDF)
L'objectif de cette thèse est double. Tout d'abord, la thèse propose un cadre théorique permettant d'évaluer à la fois le rôle de la persistance des habitudes et des nouvelles financières et celui de la dynamique des variables macroéconomiques afin d'expliquer les variations du ratio cours des actions-dividende et de la structure à terme des taux d'intérêt. Les modèles envisagés sont ainsi des extensions du modèle d'évaluation des actifs financiers basé sur la consommation ((C)CAPM). Ensuite, la thèse contribue à l'analyse empirique de ces modèles. L'objectif est ici de tester le pouvoir de prédiction (i) du ratio surplus de consommation et (ii) du ratio cours des actions-dividende. Cette thèse comporte trois chapitres. Le premier chapitre montre que dans le cadre d'un modèle (C)CAPM avec formation des habitudes, la persistance du stock d'habitudes permet de reproduire la persistance du ratio cours des actions-dividende et en partie la prédictabilité des excès de rendements des actifs risqués à long terme. Dans le deuxième chapitre, nous mettons en évidence, théoriquement et empiriquement, la capacité du ratio surplus de consommation à expliquer les variations des rendements d'actifs risqués, à la fois en séries chronologiques et en coupe transversale. Enfin, dans le dernier chapitre de cette thèse, nous considérons un modèle (C)CAPM avec (i) une modélisation générale du niveau de consommation de référence et (ii) une spécification affine des variablesexogènes. La représentation affine du taux d'escompte stochastique et des processus exogènes permet de déterminer les solutions analytiques exactes du ratio cours des actions-dividende, du ratio cours du portefeuille de marché-consommation et de la structure à terme des taux d'intérêt
100

Ablation Laser de microparticules de Terfenol-D (Tb0.3Dy0.7Fe1.92) en aérosol etdépôt supersonique des nanoparticules en résultant pour la fabrication de<br />films magnétostrictifs épais

O'Brien, Daniel 05 December 2007 (has links) (PDF)
Cette thèse décrit la fabrication de couches épaisses nanostructurées magnétostrictives par dépôt supersonique de nanoparticules sur un substrat ; ces nanoparticules étant obtenues par le procédé d'Ablation Laser de Microparticules de Terfenol-D en aérosol. Un bloc solide de Terfenol-D a été réduit en poudre de microparticules de 0,3 à 3 µm de diamètre. Ces microparticules ont ensuite été injectées dans un aérosol s'écoulant en continu et ablaté par un laser ultraviolet KrF pulsé. Puis, les nanoparticules formées après l'ablation ont été accélérées par leur passage dans un micro-orifice. Le jet supersonique de nanoparticules en découlant a été utilisé pour déposer une couche épaisse sur un substrat à température ambiante. Les nanoparticules étaient amorphes, comme l'ont montré les analyses de diffraction aux rayons X des couches et les mesures de microscopie électronique à transmission (TEM) effectuées sur des particules individuelles. La distribution des tailles des nanoparticules était typique du procédé LAM : entre 3 et 20 nm de diamètre avec une moyenne de moins de 10 nm.<br /> Les couches déposées ont été caractérisées par la méthode des poutres pour déterminer le module élastique et le niveau de magnétostriction. Les couches étant poreuses en raison de leur nature granulée, leur module élastique était réduit à environ 15 GPa. Le niveau de magnétostriction des couches était d'environ 15 ppm ; cette magnétostriction réduite (1/30 de celui des couches fines) étant dû à un problème d'oxydation. Une analyse spectroscopique du plasma produit par l'ablation a permit la détermination de la source d'oxydation. L'étendue de l'oxydation des couches est apparue directement dépendante de la taille des microparticules utilisées initialement pour fabriquer les nanoparticules. Après calculs théoriques, pour des densités typiques d'aérosol utilisées dans le procédé LAM, il a été démontré que les nanoparticules fabriquées à partir de microparticules de plus de 3 µm de diamètre n'étaient pas affectées de façon significative par les impuretés présentes dans le gaz ou par l'oxydation de surface des microparticules. En revanche, les nanoparticules fabriquées à partir de microparticules de 0,3 µm de diamètre ou moins étaient, elles, oxydées et les couches en résultant l'étaient aussi. Experimentalement le diamètre des microparticules injectées en aérosol était présumé être entre ces deux cas.

Page generated in 0.0398 seconds