Spelling suggestions: "subject:"três""
71 |
De la recherche de matière noire à l'émission diffuse de rayons gamma dans l'expérience H.E.S.S.Charbonnier, Aldée 26 November 2010 (has links) (PDF)
L'astronomie gamma de très haute énergie (E > 30 GeV) révèle la présence de processus non thermiques dans l'Univers, et est devenue une discipline à part entière depuis quelques années. La majorité des objets observés jusqu'à présent sont ponctuels ou peu étendus spatialement. Des émissions diffuses sont néanmoins attendues, issues de l'interaction des rayons cosmiques se propageant dans la Galaxie avec le milieu interstellaire. Une étude préliminaire du potentiel de détection de ces émissions est entreprise pour le réseau de télescopes H.E.S.S. (High Energy Stereoscopic System). Cet instrument, fonctionnant depuis 2004, détecte la lumière Cherenkov émise par les gerbes de particules atmosphériques générées par les photons de très haute énergie. La méthode classique de soustraction de fond On-Off est étudiée. L'influence du bruit de fond de ciel sur le taux d'événements enregistrés est également analysée. La deuxième thématique de cette thèse concerne le potentiel de détection de la matière noire avec l'expérience H.E.S.S. Un code (baptisé CLUMPY) basé sur une approche semi-analytique est présenté. Il permet de calculer le flux de rayons gamma en provenance de l'annihilation de particules de matière noire, pour les structures et sous-structures de la Galaxie, les distributions étant spécifiées par l'utilisateur. Finalement, l'observation par H.E.S.S. de la galaxie naine sphéroïde Carina pendant ~15h a permis de placer une limite supérieure sur la section efficace d'annihilation du neutralino à ~1e-22 cm3/s.
|
72 |
Quantification de dégâts sur le bâti liés aux catastrophes majeures par images satellite multimodales très haute résolutionChesnel, Anne-Lise 15 September 2008 (has links) (PDF)
Lors d'une catastrophe majeure, il est nécessaire de connaître rapidement l'importance des dégâts sur les bâtiments. Actuellement, cette quantification de dégâts se fait manuellement par comparaison visuelle d'images satellite. Les méthodes automatiques sont immatures ; leurs performances étant rarement évaluées, elles ne sont pas utilisées par les opérationnels. Nous proposons un protocole standard d'évaluation des performances de méthodes de quantification de dégâts. Il s'appuie sur des bases de données de référence obtenues pour cinq cas de catastrophes variées. Celles-ci contiennent pour chaque bâtiment l'emprise de son toit dans chaque image, ainsi qu'un degré de dégâts. Le protocole permet de quantifier les performances d'une méthode et de confronter ses résultats à d'autres. Disposant de ce protocole d'évaluation, nous proposons une méthode de quantification de dégâts à partir d'un couple d'images satellites panchromatiques de très haute résolution (THR) spatiale et d'un ensemble d'objets d'intérêt définis dans l'image de référence. La méthode développée doit pouvoir conduire à des résultats satisfaisants et reproductibles en utilisant des images de modalités différentes, et être automatisée au mieux. Les dégâts sur les bâtiments sont quantifiés par l'amplitude des changements sur leurs toits. Pour comparer ces derniers, ils doivent être alignés. Le recalage géométrique des données THR est un problème complexe non résolu ; une nouvelle méthode adaptée à notre problème est développée et évaluée. Elle aboutit à des résultats généralement satisfaisants pour notre application. Des indices de changements sont ensuite extraits. Deux coefficients de corrélation et des indices de texture obtenus par filtrage sont extraits, et un degré de dégâts est attribué à chacun des bâtiments par classification supervisée. L'impact des différences de modalité des images sur les performances de notre méthode est évalué. La méthode proposée est rapide, en grande partie généralisable et robuste à l'utilisation d'images THR de différentes résolutions ou issues de couples multicapteurs ; le paramètre influant est le B/H du couple.
|
73 |
Méthodologies et Outils pour l'évaluation des Protocoles de Transport dans le contexte des réseaux très haut débitGuillier, Romaric 29 October 2009 (has links) (PDF)
Au cours des vingt dernières années, c'est une évolution très rapide non seulement en termes de nombre d'éléments inter-connectés mais surtout en termes de capacités des liens qui a pu être constatée au sein des réseaux de communications. A la création du réseau ARPANET en 1969, il y a plus de quarante ans, quatre ordinateurs, tous situés aux États-Unis étaient connectés avec des liens avec un débit de 50 kilobits par seconde. En 1986, à la création du réseau des universités américaines, le NSFNET, le nombre de machines dépassait déjà plusieurs milliers mais le débit des liens de coeur était encore de 56 kilobits par seconde. A partir de ce moment, la croissance à la fois en termes de nombre d'éléments inter-connectés et de capacités des liens a été exponentielle, grâce au succès de nouvelles applications populaires comme le WWW ou les avancées technologiques comme SDH, SONET ou DWDM dans le domaine des réseaux de fibres optiques et ATM et les protocoles DSL qui en dérivent. L'Internet actuel interconnecte des milliards d'utilisateurs (un demi-milliard de machines fin 2006) répartis partout dans le monde, pouvant utiliser des liens de coeur dont les débits cumulés sont supérieurs à plusieurs Térabits par seconde et dont les liens d'accès peuvent atteindre jusqu'à 10 Gigabits par seconde. Une autre évolution technologique fondamentale est que, aujourd'hui, certains liens d'accès ont des débits du même ordre de grandeur que les débits des liens de coeur auxquels ils sont connectés. Il est aujourd'hui courant de trouver des fermes de serveurs où les noeuds sont interconnectés avec des liens à 1 Gbps ou 10 Gbps et qui ont une connexion vers l'extérieur avec un débit similaire. Cette modification est importante car désormais quelques connexions suffisent à provoquer une saturation des liens de coeur. Cette situation risque d'empirer au fur et à mesure du remplacement des technologies DSL par la Fibre-Jusqu'à-La-Maison (FTTH). Des connexions à 5 Mbps agrégées sur des liens OC48 (2.5 Gbps) vont alors être remplacées par des connexions à 100 Mbps, voire 1 Gbps, agrégées sur des liens à 10 Gbps, voire moins suivant la technologie optique utilisée sur le réseau d'accès. Il est fort probable que dans de tels environnements des niveaux de congestion élevés ne soient pas rares, engendrant des perturbations pour de nombreuses applications. Un grand nombre d'applications prometteuses ont émergé et pourraient bénéficier de capacités de communication accrues, comme par exemple la Vidéo-à-la-Demande (VoD) qui permet aux utilisateurs de regarder des films en haute définition chez eux quand ils le désirent ou les expériences scientifiques générant des quantités massives de données (comme le LHC) qui doivent être acheminées dans des centres de calcul répartis tout autour du globe. L'interaction d'utilisateurs avec des objets distants via un réseau de communication ou Téléprésence commence également à prendre un rôle prépondérant dans de nombreux domaines allant du médical au militaire en passant par l'exploration spatiale. Mais ces applications sont encore construites au dessus de logiciels ou de protocoles à succès comme TCP et IP, conçus il y a longtemps pour un contexte de réseaux bas-débit. Le conception était dirigé par un but principal: fournir une interconnexion robuste entre des réseaux existants. Plongés maintenant dans un contexte de réseaux très haut-débit, ces protocoles extrêmement robustes et capables de passer à l'échelle sont toujours en activité mais commencent à montrer leurs limites en termes de performance, sécurité, fonctionnalités et flexibilité. L'exemple le plus typique est TCP au niveau de la couche de transport. TCP a été conçu comme un protocole ``à tout faire'' mais à mesure que la capacité des liens augmente dans les réseaux fixes, que les caractéristiques intrinsèques changent pour les réseaux sans fils et que les besoins des applications divergent, TCP n'est plus capable de permettre une utilisation performante pour tous des capacités nominales des liens du réseau. De nombreuses solutions ont été proposées, mais les concepteurs de protocoles d'aujourd'hui ont un large désavantage par rapport à ceux d'il y a quarante ans. Faire fonctionner ensemble quatre machines identiques n'est pas exactement pareil que concevoir un logiciel de communication ou protocole susceptible d'être utilisé entre des milliards de machines hétérogènes. Apporter du changement dans un système d'une telle ampleur est problématique: il n'est pas possible d'envisager une migration massive du jour au lendemain surtout si des équipements physiques sont concernés. Le changement ne peut être que graduel et via des mises à jour logicielles dans les hôtes d'extrémité. La peur d'un effondrement de l'Internet dû à la congestion comme à la fin des années 80 resurgit. Causés par une surabondance de trafic réseau sur des liens saturés, ces troubles ont mis en avant la nécessité d'introduire un mécanisme de contrôle de congestion dans les protocoles de transport. Si les nouvelles solutions introduites se comportent de façon égoïste quand elles partagent une ressource commune (un lien), alors cette peur est fondée. Il est donc nécessaire de fournir des moyens de vérifier si une solution donnée possède les propriétés adéquates avant de l'introduire dans un système partagé à très large échelle.
|
74 |
L'astronomie gamma de très haute énergie avec H.E.S.S. Développement d'une analyse multi-variables et application à l'étude de nébuleuses de pulsarsDubois, Florent 18 December 2009 (has links) (PDF)
L'expérience H.E.S.S. (High Energy Stereoscopic system) a pour objectif l'observation du ciel austral en rayons gamma de très haute énergie. L'observatoire, constitué de quatre télescopes fonctionnant en stéréoscopie et situé en Namibie, est un des plus performants au monde. Enregistrant des données depuis 2003, c'est l'instrument idéal pour l'observation du plan galactique et la détection des nombreuses sources qui s'y trouvent. Trois méthodes d'analyse ont été mises en place, s'appuyant sur différentes propriétés des gerbes électromagnétiques issues de l'interaction des gamma avec l'atmosphère. L'objectif premier de cette thèse était de combiner les informations issues de ces trois méthodes pour la sélection des événements et la reconstruction de la direction et de l'énergie des gamma. La nouvelle analyse, appelée Xeff, apporte un gain significatif sur la qualité de la sélection et sur la précision de reconstruction de l'énergie et de la direction. L'analyse Xeff a été utilisée pour l'étude de nébuleuses de pulsar telles que Vela X, G0.9+0.1 et MSH 15-52. De nouveaux résultats ont été mis en évidence concernant l'extension de la source (Vela X) ou la forme spectrale (G0.9+0.1 et MSH 15-52) grâce à de nouvelles observations et à l'efficacité de l'analyse mise en place. Dès 2010, l'expérience rentrera dans une nouvelle phase avec l'achèvement d'un cinquième télescope, dédié à l'observation des rayons gamma à partir de quelques dizaines de GeV. Les tests mis en place pour l'étalonnage des photomultiplicateurs et les résultats obtenus sont décrits dans le manuscrit.
|
75 |
LE FINANCEMENT BANCAIRE DES CRÉATEURS DE TRÈS PETITES ENTREPRISESStéphane, Foliard 25 November 2008 (has links) (PDF)
La recherche de ressources financières, notamment auprès des banques, est souvent problématique pour les porteurs de projet de création d'une entreprise de taille TPE sans expérience. Bien que les banques soient de plus en plus équipées d'outils informatisés d'aide à la décision, la première étape de l'attribution d'un prêt est l'entretien avec un conseiller financier qui va servir de filtre. Après avoir spécifié le concept de TPE et rattaché les démarches de création et de reprise au champ de l'entrepreneuriat, l'auteur de ce travail propose une modélisation intersubjectiviste de cet entretien en mettant en évidence les éléments déterminant l'envie du conseiller financier de concrétiser la demande du créateur. Ce modèle met en évidence trois catégories de phénomènes influant, à savoir le contexte général de la relation et plus particulièrement la pression de la banque sur le conseiller, des éléments perçus par le conseiller et projetés dans une situation professionnelle attendue et, enfin, des éléments constitutifs de la confiance entre les parties sans laquelle rien ne se fera. L'auteur soutient que l'envie du conseiller se construit sur des informations « soft », informations privatives de nature qualitative détaillées dans ce développement. Ces résultats ont été obtenus à partir de propositions nées de l'expérience professionnelle de l'auteur, par une double enquête de terrain menée sur le roannais auprès de dix-sept conseillers financiers. Ils sont ensuite éclairés par la littérature relative aux conventions, aux parties prenantes et aux théories de la confiance
|
76 |
DART : MODÈLE 3D MULTISPECTRAL ET INVERSION <br />D'IMAGES OPTIQUE DE SATELLITE<br />- APPLICATION AUX COUVERTS FORESTIERS -Martin, Emmanuel 25 July 2006 (has links) (PDF)
En télédétection optique, les modèles de transfert radiatif (T-R) ont pour but de simuler la mesure radiométrique des capteurs spatiaux qui observent le système "Terre - Atmosphère". La modélisation des mesures de couverts végétaux est en général limitée au niveau de la représentation du paysage et du T-R associé. Cette thèse a permis de transformer le modèle 3-D de T-R DART (brevet : PCT/FR 02/01181) en un modèle multispectral simulant les images de télédétection optique (thermique inclus) de tout paysage urbain et naturel, avec relief et atmosphère, pour tout capteur spatial/aéroporté. Ce nouveau modèle a été validé par comparaison avec d'autres modèles (expérience RAMI-3, Centre Commun de Recherche, Italie) et avec des mesures in situ et aéroportées (République Tchèque). In fine, une méthode d'inversion a été développée. Elle a permis d'utiliser DART pour évaluer l'impact de la modélisation sur l'extraction du LAI d'une forêt de conifères avec des images hyperspectrales THR.
|
77 |
Contribution à l'étude des champs électriques très basses fréquences en milieu océaniquePoulbot, Valéry 13 October 1993 (has links) (PDF)
La mesure des champs électromagnétiques de très basses fréquences en milieu océanique intéresse de nombreuses disciplines scientifiques, de l'océanographie à la géophysique en passant par la détection sous-marine. L'étude du champ électrique, complémentaire de celle du champ magnétique, n'a cependant pas suscité jusqu'à présent un intérêt aussi important que son homologue. Cette thèse propose ainsi une contribution à l'étude des champs électriques très basses fréquences en milieu océanique. Dans un premier temps, afin de montrer l'intérêt de la mesure du champ électrique, nous présentons les phénomènes électromagnétiques très basses fréquences observables en mer. Une revue de l'état de l'art de l'électrométrie en milieu océanique met en évidence les difficultés et les limitations au niveau de l'instrumentation haute-sensibilité. Nous décrivons ensuite la conception et la mise au point d'une maquette expérimentale d'électromètre utilisant un principe physique original. Le système, calibré en laboratoire, affiche une sensibilité de l'ordre du nV/m dans une bande de fréquence descendant jusqu'à 0,01 Hz, ce qui le situe parmi les meilleurs appareils existants. Quelques expériences de mesure sont présentées, visant à la mise en évidence de champs électriques très faibles d'origine physique (électrodynamique) ou électrochimique (corrosion). En marge de l'électrométrie, nous nous intéressons également de façon générale, théorique et expérimentale, aux champs électromagnétiques engendrés par les phénomènes de corrosion. Nous présentons enfin une modélisation tridimensionnelle de notre électromètre par la méthode des éléments finis, validée par comparaison avec une méthode intégrales de frontière. Des développements théoriques se sont avérés nécessaires pour permettre à la méthode de prendre en compte des discontinuités d'interfaces. Ces développements dépassent le cadre de l'application pour aboutir à une méthode générale et une nouvelle classe d'éléments finis interfaciaux.
|
78 |
Relations entre microstructure et aptitude au pliage des aciers à effet TRIP pour application automobileReche, Delphine 18 March 2011 (has links) (PDF)
Pour limiter la consommation des véhicules, les industries automobiles demandent aux aciéristes de développer des aciers de plus en plus fins avec des hautes résistances. Les aciers très haute résistance (THR) comme les aciers TRIP (TRansformation Induced Plasticity) permettent d'effectuer des pièces automobiles aux formes complexes. Néanmoins, le compréhension des mécanismes de mise en forme de ces aciers n'est pas simple et implique une étude détaillée des mécanismes de rupture apparaissant durant la mise en forme. Ainsi, les liens entre les paramètres microstructuraux, en particulier les structures en bandes, et la mise en forme ont été étudiés pour obtenir une meilleure prédiction de la capacité en pliage des aciers en fonction de leur microstructure. Dans cette étude, quatre aciers TRIP présentant des performances en pliage différentes ont été caractérisés à la fois en pliage en V et en pliage sous traction. A partir d'observations au microscope optique et à balayage, nous avons démontré que les fissures s'initiaient à partir de la surface ou juste en dessous en pliage en V alors qu'elles s'initiaient au niveau de la ségrégation centrale en pliage sous traction. Les surfaces de rupture après pliage sont ductiles et l'endommagement apparait principalement par décohésion de l'interface ferrite/martensite et occasionnellement par rupture des ilots martensitiques. Une procédure originale basée sur des échantillons rectifiés présentant la bande de ségrégation à différents endroits dans l'épaisseur a été établi. Ce travail a permis de proposer une relation entre l'épaisseur d'une bande, son endommagement et sa déformation locale atteinte pendant un test de pliage en V. Pour développer un critère de rupture pour ces tests de pliage, les champs de contrainte et déformation ont été calculés par simulation numérique pour ces deux tests. Pour ce faire, une base de données expérimentale incluant des tests de traction sur éprouvettes lisses et entaillées et des tests de cisaillement a été établie. La loi de comportement du matériau a été déterminée à partir de cette base expérimentale et présente un comportement élastoplastique anisotrope avec écrouissage mixte. La simulation numérique des deux essais de pliage associée à un critère d'endommagement a permis de prédire de manière satisfaisante les champs de déformation, les courbes force/déplacement ainsi les angles de rupture. La possibilité d'utiliser des modèles simplifiés (tels qu' un critère d'écoulement isotrope, un écrouissage purement isotrope, des calculs en 2D et des conditions aux limites simplifiées) a également été discuté.
|
79 |
Etude de la projection plasma sous très faible pression - torches et procédé de dépôtZhu, Lin 06 December 2011 (has links) (PDF)
Au cours de la dernière décennie, la technologie de projection à la torche à plasmasous très faible pression (VLPPS) (inférieure à 10 mbar) a attiré l'attention denombreux chercheurs car ce procédé permet d'envisager la possibilité de réaliser desdépôts de structure voisine de celle des dépôts en phase vapeur avec une cinétiqueproche de celle de la projection thermique classique. Cette technologie vise donc àévaporer totalement ou partiellement des poudres afin de déposer des revêtementsdenses avec une structure colonnaire ou mixte.Le travail effectué dans cette étude à consisté à étudier et à développer des moyenspour assurer la fusion et l'évaporation de matériaux céramiques en vue d'élaborer desrevêtements de haute qualité et à caractériser les propriétés de ces revêtements.Dans une première approche des dépôts denses et homogènes de zircone stabilisée àl'yttrine (YSZ) ont été obtenus sur un substrat " inox " en utilisant des torches àplasma " classiques " de type F100 et F4 sous très faible pression (1 mbar) en utilisantde façon originale un principe d'injection axiale via l'alimentation en gazplasmagènes. Un spectromètre d'émission optique a été utilisé pour analyser lespropriétés du jet de plasma et notamment apprécier le taux d'évaporation du matériau.La composition et la microstructure des dépôts ont été caractérisées par diffraction desrayons X et microscopie électronique à balayage. Les résultats ont montré que lapoudre YSZ a été partiellement évaporée et que les dépôts obtenus disposent d'unemicrostructure hybride composée de " splats " formés par des particules fondues etune " matrice " (en faible quantité) résultant de la condensation de vapeurs provenantde l'évaporation des particules surchauffées.Afin de tenter d'augmenter le taux de vaporisation, l'anode de la torche F100 a étéallongée et un dispositif d'arc transféré complémentaire a été réalisé afin d'éleverl'énergie du jet de plasma et de favoriser l'échange thermique. Les effets de cedispositif sur les propriétés du jet de plasma ont été évalués par spectrométried'émission optique et calcul de la température électronique. Des dépôts de YSZ etd'alumine (Al2O3) ont été élaborés à la pression de 1 mbar. Les dépôts de YSZ ontaffiché une microstructure hybride similaire à celle obtenue précédemment alors quepour les dépôts d'alumine, seul un dépôt lamellaire " classique " a été observé. Lacapacité d'évaporation est donc restée limitée. La microstructure, les propriétésmécaniques et les propriétés de résistance aux chocs thermiques des dépôts de YSZont été étudiées plus en détail et comparées avec celle de dépôts réalisés dans desconditions plus classiques. Une tenue améliorée en termes de résistance aux cyclagesthermiques a notamment été observée.Afin de répondre aux attentes en matière de niveau de densité de puissance du jet lelaboratoire s'est équipé d'une une nouvelle torche à plasma tri-cathode expérimentaleélaborée par la société AMT. Cette torche a été modélisée et testée dans un premiertemps en conditions atmosphériques, révélant une limitation importante du rendementde projection. A partir de ces premiers résultats expérimentaux une nouvellegéométrie de buse a été proposée afin d'améliorer le rendement de projection. Il aalors été constaté que le rendement de la projection avait été considérablementaugmenté par cette modification et que la microstructure du dépôt était également plusfavorable. Ce travail devra maintenant se poursuivre par l'intégration de cette torche dans l'enceinte sous pression réduite.
|
80 |
Frottement saccadé dans les matériaux granulaire modèlesHoang, Minh Tam 08 July 2011 (has links) (PDF)
Cette étude a pour objectifs la caractérisation expérimentale des frottements saccadés dans les matériaux granulaires modèles constitués des billes de verre monodisperses en compression triaxiale drainée et l'identification des paramètres de contrôle. Cinq paramètres macroscopiques caractérisent ces frottements saccadés : la chute de déviateur et la contraction volumique, l'intermittence de déformation axiale, le module d'Young et le coefficient de Poisson. Les frottements saccadés affectent simultanément le déviateur et la déformation volumique. Le comportement macroscopique est globalement contractant tandis que le matériau tend vers un état limite critique en grandes déformations, à la manière des sables lâches. Cependant il présente localement, dans les phases de blocage qui suivent immédiatement les ruptures temporaires, le comportement dilatant des sables denses, qui obéit à une relation contrainte-dilatance linéaire et unique. Les frottements saccadés disparaissent au-delà d'une vitesse critique d'écrasement axial, qui dépend de la contrainte de confinement et de la taille des grains. Le module d'Young dynamique par propagation d'ondes varie avec la contrainte de confinement selon une loi de puissance. Le module d'Young quasi-élastique au départ des phases de blocage est constant à l'intérieur du domaine élastique, de même que le coefficient de Poisson. Le suivi par granulométrie laser et par analyse d'images des matériaux après un ou plusieurs essais triaxiaux permet de suivre l'évolution de la taille moyenne et de la forme des grains. Tandis que les instabilités par saccade disparaissent suite à un certain nombre d'essais, on observe, simultanément à une légère diminution du volume moyen, l'apparition progressive de populations d'objets non sphériques par une fusion des grains analogue au frittage.
|
Page generated in 0.044 seconds