• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 687
  • 222
  • 64
  • 6
  • 1
  • 1
  • 1
  • Tagged with
  • 978
  • 780
  • 365
  • 350
  • 217
  • 207
  • 127
  • 116
  • 105
  • 102
  • 100
  • 98
  • 95
  • 91
  • 87
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Reconstruction 3D d'un objet compact en tomographie

Soussen, Charles 20 December 2000 (has links) (PDF)
Le contexte de ce travail est la reconstruction 3D d'images binaires en tomographie X à partir d'un faible nombre de vues. En contrôle non destructif, une première expertise peut révéler la présence d'une seule zone défectueuse, ou occlusion dans un milieu homogène. Le défaut est alors considéré comme un objet compact et homogène. Sa reconstruction est sous-déterminée car les projections sont limitées en nombre et en angles. Il est alors indispensable d'apporter de l'information a priori sur l'objet et/ou le milieu pour obtenir une solution acceptable. Une approche possible est la modélisation probabiliste de cette information et la méthodologie bayésienne. Nous distinguons deux classes de méthodes. Les premières, plus classiques, modélisent l'image par un champ binaire et estiment les valeurs de ses voxels à partir des données. Les secondes modélisent directement le contour de l'objet, et réalisent son estimation à partir des données. Compte tenu du contexte, nous optons pour ces dernières car elles permettent de limiter le nombre de paramètres et d'exploiter explicitement la compacité de l'objet. La régularisation porte alors sur la douceur locale du contour. Après une présentation des deux approches, de leurs avantages et limitations, nous étudions les approches par contour en sélectionnant des paramétrisations adaptées. Nous optons pour des modélisations locales, dont chaque paramètre ne contrôle qu'une portion du contour, afin de reconstruire des surfaces complexes. En particulier, nous utilisons la représentation polyédrique. Ce choix est conforté par des aspects algorithmiques, et notamment l'étude des projections du polyèdre. Nous concevons une méthode originale de reconstruction qui s'appuie sur l'estimation directe de la position des sommets du polyèdre à partir des données, sans recourir à une représentation par voxel de la scène examinée. Nous discutons son efficacité et sa capacité à reconstruire des objets de forme complexe de façon rapide.
122

Structure d'interface de fluides complexes

Mora, Serge 26 September 2003 (has links) (PDF)
Une étude de la structure d'interfaces liquide-vapeur est présentée dans cette thèse. Les surfaces étudiées sont étroitement liées, afin de pouvoir déterminer l'influence des différents types d'interactions moléculaires, et de cerner les mécanismes responsables des propriétés physiques de ces surfaces. La diffusion diffuse de rayons x a permis de mesurer, pour différents liquides, le spectre des fluctuations de hauteur d'une surface nue. Ces mesures ne concordent plus avec le modèle des ondes capillaires pour des vecteurs d'onde supérieurs à 108 m-1 : la notion de tension de surface n'est plus valable à ces échelles et doit être remplacée par une énergie de surface effective. Il est montré que cette dernière décroît lorsque la longueur d'onde associée à la fluctuation est de l'ordre de quelques dizaines de distances moléculaires. Elle augmente pour les plus petites longueurs d'onde envisageables. L'accord remarquable avec la théorie proposée par K. Mecke et S. Dietrich. Ces mesures ont été étendues au cas d'interfaces décorées par un film moléculaire : l'énergie de surface effective est alors correctement décrite par une rigidité de courbure seule, qui est mesurée pour des films dans différentes phases. En particulier, l'effet de la renormalisation de la rigidité de courbure par l'élasticité lorsque le film s'apparente à un réseau bidimensionnel connecté a été mis en évidence. En complément de mesures de fluctuations de surfaces de solutions ioniques, nous avons montré que l'excès de concentration en ions au voisinage de la surface peut être mesuré par des expériences de fluorescence de rayons x et d'ellipsométrie. Cette mesure est essentielle pour comprendre les origines de la variation de la tension de surface, et plus généralement pour expliquer la spécificité des ions de la série de Hofmeister.
123

Conformation, inetraction et organisation des particles coeur de nucleosome

MANGENOT, Stephanie 18 December 2001 (has links) (PDF)
Dans les cellules des organismes eucaryotes, l'ADN est associé à diverses protéines pour former la chromatine qui est condensée dans le volume du noyau cellulaire. L'association ADN-histones forme alors une structure périodique dont l'unité répétitive est le nucléosome, mais dont les niveaux d'organisation supérieurs sont toujours en discussion. Afin de comprendre cette organisation, nous avons étudié in vitro le comportement des particules cœur de nucléosome. Dans des conditions de concentrations (en particules et en sel monovalent), recouvrant celles du milieu cellulaire, les particules forment différentes phases ordonnées dont la nature dépend de la concentration ionique de la solution. Nous avons montré, par diffraction des rayons X, qu'à faible concentration saline les particules s'organisent en une phase lamellaire de bicouches et qu'à fort sel, elles forment une phase hexagonale ou quasi-hexagonale organisée à deux ou trois dimensions. Afin de comprendre l'origine du polymorphisme observé en phase dense, nous avons réalisé des études de diffusion des rayons X et des expériences d'osmométrie en solution diluée. Nous avons mis en évidence de très faibles changements de la conformation des particules cœur de nucléosome, et plus précisément une extension des queues des histones lorsque la concentration saline de la solution augmente de 10 à 200 mM. Cette augmentation de la concentration ionique modifie également les interactions entre particules. Nous avons montré que ces deux phénomènes (extension des queues et changement des interactions) sont couplés. Ces changements conformationnels et les variations des interactions pourraient expliquer le polymorphisme structural observé en milieu dense. Cependant, cette comparaison nécessite de prendre en compte l'évolution des concentrations ioniques en fonction de la concentration en particules, et les phénomènes d'encombrement stérique.
124

Modélisation de couches de grains luminophores : évolution de la morphologie durant le recuit de synthèse et efficacité optique

Pannier, Nayely 12 December 2011 (has links) (PDF)
La partie centrale des lampes à basse consommation est constituée d'un tube en verre rempli de plasma de mercure et recouvert d'une couche de grains de luminophores. Ces grains de quelques microns absorbent la radiation UV et émettent de la lumière visible. Dans cette thèse, deux problèmes liés à ces couches sont étudiés. Dans une première partie, un modèle de champ de phase est développé pour décrire le changement de la morphologie des grains lors du recuit de synthèse en présence d'un fondant. A l'aide de ce modèle, nous avons mis en évidence le rôle des tensions de surface et des mécanismes de transport de matière dans le liquide. Dans une seconde partie, nous utilisons la méthode du tracé de rayons pour modéliser les propriétés optiques d'une couche de grains de luminophores. Cette dernière a deux buts qui peuvent sembler contradictoire : absorber le maximum de rayons UV et maximiser l'extraction de lumière visible. Nous avons mis en évidence l'existence d'un optimum d'efficacité d'extraction, ce qui suggère que les pertes de lumière visible dans la lampe peuvent être atténuées en utilisant des couches peu compactes.
125

Phases lamellaires dopées

Constantin, Doru 20 June 2011 (has links) (PDF)
Cet ouvrage représente un résumé partiel de mes travaux depuis l'arrivée au Laboratoire de Physique des Solides en octobre 2005, en tant que chargé de recherches au CNRS. Le projet que j'avais présenté à l'époque portait principalement sur la formulation et l'étude par des techniques de diffusion du rayonnement de phases lamellaires de tensioactifs dopées avec des inclusions inorganiques, sphériques ou anisotropes. Un deuxième sujet de recherche (dans la même mouvance que le premier) envisageait la mesure de l'interaction entre des peptides insérés dans des membranes de lipides. Finalement, un troisième sujet assez distinct des deux précédents était l'étude de la dynamique de particules colloïdales par la diffusion dynamique des rayons X (XPCS, selon l'acronyme anglais).
126

Etudes structurale et fonctionnelle de protéines impliquées dans la virulence chez S. pneumoniae et P. aeruginosa

Izore, Thierry 10 October 2011 (has links) (PDF)
Cette thèse est composée de deux parties : Le première partie rend compte de l'étude structurale de la protéine RrgA. RrgA est associée au pilus du pathogène Streptococcus pneumoniae et participe aux premières étapes de colonisation chez l'hôte en se liant à plusieurs composés de la Matrice Extra Cellulaire. Nous avons résolu la structure de cette protéine à 1.9 Å par cristallographie aux rayons-X. RrgA possède une structure allongée formée de quatre domaines alignés d'origine eucaryote et procaryote. En effet, trois domaines ayant des similarités structurales avec les IgG et le domaine Cna-B semblent servir de piédestal pour orienter et présenter le domaine fonctionnel de type Intégrine. Nous avons confirmé la formation de deux ponts isopeptidiques stabilisateurs par spectrométrie de masse. De plus, le domaine intégrine possède deux insertions particulières dont la présence pourrait être impliquée dans la reconnaissance des divers substrats par RrgA. La deuxième partie de cette thèse est axée sur l'étude structurale du complexe ATPase et de ExsB, la pilotine présumée du système de sécrétion de type III chez Pseudomonas aeruginosa, bactérie opportuniste et jouant un rôle majeur dans l'infection des patients atteints de mucoviscidose. Pour la première fois, nous avons mis au point un protocole d'expression et de purification sous forme soluble de l'ATPase PscN en complexe avec une protéine partenaire, PscL. Des cristaux de ce complexe ont été obtenus au robot du PSB. Par ailleurs, nous avons confirmé l'expression de la lipoprotéine ExsB chez P. aeruginosa que nous avons localisée au sein de la membrane externe. De plus, nous avons résolu la structure de cette protéine qui présente un nouveau repliement et qui établie les bases structurales pour l'étude des pilotines pour tous les systèmes de sécrétion de type III de la famille Ysc.
127

Fluorescence X appliquée à l'étude du temps de fission de l'élément Z=120

Frégeau, M.O. 10 October 2011 (has links) (PDF)
L'étude de la réaction 238U + 64Ni 'a 6,6 MeV par nucléon nous a permis d'identifier des rayons X caractéristiques de l'élément Z = 120. Ces X caractéristiques ont été trouvés en coïncidence avec des fragments de fission des noyaux composés de 120 protons formés au cours de la réaction. La multiplicité de ces rayonnements rend possible l'extraction des informations sur la probabilité de formation par fusion dans la réaction étudiée du noyau de Z = 120 ainsi que sur le temps de fission de ce noyau.
128

Matière noire et rayons cosmiques galactiques

Taillet, Richard 08 December 2010 (has links) (PDF)
Parmi les problèmes auxquels sont confrontés la cosmologie et l'astrophysique modernes, celui de la matière noire occupe une place particulière, résistant depuis de nombreuses décennies à la sagacité des théoriciens et au savoir-faire des expérimentateurs. Le problème en lui-même s'énonce simplement : de nombreuses mesures astrophysiques indirectes indiquent que la masse contenue dans notre univers semble dominée par de la matière d'un type nouveau, que l'on a encore jamais détecté directement, on l'appelle la matière noire. L'hypothèse qu'elle puisse être constituée de nouvelles particules intéresse grandement les physiciens des particules, dont les théories prédisent l'existence de telles particules : la matière noire est un des thèmes majeurs de l'astrophysique des particules. Cette habilitation à diriger des recherches est centrée sur la recherche de matière noire sous la forme de particules nouvelles, et plus particulièrement à la détection indirecte, pour laquelle on cherche les particules issues des annihilations de la matière noire plutôt que la particule originale elle-même. Dans ce cadre, je présenterai les études du rayonnement cosmique que j'ai menées, en collaboration avec diverses équipes. En particulier, l'étude de l'antimatière qu'il contient, permet de tirer des conclusions sur la matière noire.
129

Contribution à l'identification de la nature des rayons cosmiques d'énergie extrême à l'Observatoire Pierre Auger

Pham, Ngoc Diep 17 December 2010 (has links) (PDF)
Bien que la découverte des rayons cosmiques date d'un siècle, ce n'est que récemment qu'on est parvenu à identifier leurs sources galactiques comme étant des restes de jeunes Supernovae (SNR). La difficulté était la déviation de leurs trajectoires dans le champ magnétique du disque de la Voie Lactée, empêchant d'associer leurs sources à des objets célestes connus. C'est l'astronomie en rayons gamma qui a permis de sauter cet obstacle en associant les sources de rayons gamma d'énergies supérieures au TeV à des enveloppes de jeunes SNRs. Ces découvertes récentes n'ont toutefois pas été capables d'expliquer l'origine de la composante extra galactique des rayons cosmiques, dite d'ultra haute énergie (UHECR), ni d'identifier leurs sources et le mécanisme d'accélération. Ce n'est que tout récemment, avec la construction de l'Observatoire Pierre Auger (PAO), que la physique des UHECR est apparue sous un jour nouveau. Le PAO, avec lequel notre laboratoire est associé, et dans le cadre duquel cette thèse a été réalisée, est un immense réseau de 1600 compteurs Cherenkov (SD, pour détecteur de surface) couvrant une superficie de 3000 km2 dans la pampa argentine. Il abrite également des détecteurs de fluorescence (FD) qui permettent une détection hybride des grandes gerbes pendant les nuits claires et sans lune. Le PAO a déjà accumulé, pour la première fois au monde, une centaine d'UHECRs d'énergies supérieures à 50 EeV dont l'étude des propriétés est ainsi devenue possible. De fait, deux résultats majeurs ont déjà été obtenus, qui marquent un jalon important dans l'étude de la physique des UHECRs: l'observation d'une coupure dans la distribution en énergie, aux alentours de 100 EeV, associée pour l'essentiel au seuil de photoproduction de pions dans les interactions des UHECRs avec les photons du fond cosmique fossile; et la mise en évidence d'une corrélation entre les directions vers lesquelles pointent les UHECRs et les concentrations de matière extragalactique de l'univers proche, en particulier la région de Cen A. A plus basse énergie, jusqu'à une cinquantaine d'EeV, le PAO a mis en évidence une augmentation des masses primaires vers le fer quand l'énergie augmente. Cette observation se base sur des mesures de l'altitude à laquelle la gerbe atteint son développement maximal, censée être plus élevée pour les noyaux de fer que pour les protons. Toutefois, les estimations de la masse primaire basées sur la densité de muons au sol se heurtent à des incohérences entre observations et prédictions des modèles conventionnels de développement des gerbes qui empêchent de conclure. On n'est pas encore parvenu à assembler les pièces de ce puzzle de façon claire et définitive. Une possibilité serait que les UHECR qui pointent vers des galaxies proches, comme CenA, soient des protons et que les autres soient des noyaux de fer. Mais cela reste encore à prouver. Le travail présenté dans la thèse est une contribution modeste à ce programme de recherche. Il met l'accent sur des méthodes d'identification des masses primaires basées sur la mesure de la densité des muons au sol, en particulier sur la méthode des sauts (jump method) qui a été conçue et développée au LAL d'Orsay où une partie importante de la thèse a trouvé son inspiration. La méthode des sauts identifie la présence de sauts soudains dans les traces des FADC, formant un saut total J, avec celle de muons. La lumière Cherenkov produite par les particules de la gerbe qui traversent les détecteurs du SD est captée par des tubes photomultiplicateurs dont les signaux sont enregistrés en fonction du temps dans des convertisseurs analogue/digital rapides (FADC, 40 MHz). La relation entre le saut total, J, et les propriétés des traces des FADCs montre, en particulier, que pour avoir une chance d'apprendre quelque chose de sensé sur le nombre N de muons qui contribuent à la trace du FADC, il est nécessaire de restreindre l'observation à des détecteurs qui ne soient pas trop proches de l'axe de la gerbe. Une étude séparée des traces induites par des muons et par des électrons ou photons montre que J est approximativement proportionnel à N et à Q (la charge totale), ce qui n'est pas surprenant. En combinant des traces de muons et d'électrons/photons on trouve que J peut être décrit par une expression de la forme J={(43.9±0.5)10−3Q+(200±2)N }10-3. Nous étudions ensuite la séparation entre primaires légers (protons) et lourds (fer) à laquelle on peut s'attendre de la mesure des valeurs de J dans les compteurs touchés par la gerbe. Nous remarquons que même si nous connaissions N exactement (ce qui bien sûr n'est pas le cas) la séparation entre fer et proton ne dépasserait pas les 30%, ce qui donne une mesure de la corrélation entre la nature des primaires et la densité des muons au sol. Ceci implique que l'identification des primaires à un niveau de confiance correspondant à trois déviations standard requiert un minimum de cinquante détecteurs dans lesquels on puisse mesurer la valeur prise par J. Une autre remarque est que si l'on connaissait l'énergie des primaires, ce qui n'est pas le cas, non seulement J mais aussi Q et NJ (le nombre de saut dans chaque trace) seraient de bons discriminants entre fer et protons. Ceci dit, l'énergie des primaires étant inconnue, l'inversion de la relation J=AQ+BN en N=J+Q - dans le but de déduire N de Q et J - n'est pas aussi simple qu'il y paraît. Le problème est que la corrélation qui lie Q à J est si forte qu'il n'y a essentiellement rien à gagner de l'utilisation de la forme binomiale ci- dessus. Un corollaire important de cette forte corrélation est la difficulté qu'il y a à faire la différence entre deux gerbes induites par des protons d'énergies différentes et deux gerbes d'énergies égales, l'une induite par un proton et l'autre par un noyau de fer. Afin de surmonter cette difficulté, il est nécessaire d'utiliser des discriminants indépendants de l'énergie. Deux outils sont utilisés dans ce but : l'utilisation du rapport J/Q comme discriminant et la restriction de l'analyse aux compteurs situés dans une fourchette de distances à l'axe de la gerbe dépendant de S(1000) (la densité au sol de la gerbe à 1 km de son axe, utilisée comme mesure de l'énergie de la gerbe). Des gerbes simulées sont utilisées pour démontrer qu'en principe chacun de ces deux outils est efficace. Une analyse indépendante de l'énergie est ensuite appliquée à l'étude des gerbes détectées par le PAO, confirmant leur désaccord avec les prédictions des modèles de développement des gerbes et établissant un nouveau et important résultat: ce désaccord ne peut pas être résolu par un simple ajustement de la relation entre S(1000) et l'énergie. Enfin, la méthode des sauts est appliquée aux UHECRs pointant à 18o près vers Cen A. Contrairement à une autre analyse utilisant des données hybrides pour étudier le taux d'élongation, cette analyse préfère une origine protonique pour les gerbes associées à Cen A par rapport à celles pointant ailleurs dans le ciel. Tout ceci illustre la difficulté qu'il y a à identifier la nature des primaires à partir des données du SD. Le désaccord entre données et prédictions constitue un problème majeur qu'il faut à tout prix résoudre. On ne saurait se satisfaire d'une explication rejetant sur les modèles hadroniques la responsabilité du désaccord si les mécanismes physiques incriminés ne sont pas clairement identifiés. Les programmes de simulation utilisés de façon courante sont d'une complexité telle qu'il est difficile de les utiliser dans ce but. Le souci de reproduire au plus près la réalité physique les a rendus opaques. La seconde partie de la thèse se propose de faire un pas dans la direction de l'élaboration d'un code de simulation simplifié mais transparent dans l'espoir qu'il permette d'éclairer le problème. La simulation de la composante électromagnétique des grandes gerbes est relativement simple: il suffit, à une excellente approximation, de ne retenir que le rayonnement de freinage et la création de paires comme seuls mécanismes élémentaires et d'ignorer toute particule autre que photon, électron ou positon. Il est aussi facile de décrire les pertes d'énergie par ionisation, ce qui permet un traîtement particulièrement simple du développement de la gerbe qui est présenté et commenté en détail. On obtient ainsi des paramétrisations du profil longitudinal de la gerbe utilisant la forme de Gaisser-Hillas et les valeurs moyennes des paramètres sont évaluées en fonction de l'énergie en même temps que leurs fluctuations. Trois types de primaires sont pris en considération: électrons, photons et pions neutres. Le modèle, par itérations successives, permet d'atteindre simplement aux énergies les plus élevées. Son application à l'effet Landau-Pomeranchuk-Migdal et à l'effet Perkins permettent d'illustrer son efficacité et de montrer que ces deux effets sont, en pratique, d'incidence négligeable sur la physique des UHECRs. Le développement de la composante hadronique de la gerbe est beaucoup plus difficile à traîter. Il implique la production de muons, essentiellement des pions, dont la composante neutre est purement électromagnétique et par conséquent facile à décrire. Au contraire, le destin des pions chargés dépend de deux processus en compétition: interactions hadroniques avec les noyaux de l'atmosphère et désintégrations faibles en une paire muon-neutrino. Les échelles qui gouvernent ces deux processus sont différentes: la section efficace d'interaction ne dépend que peu de l'énergie mais le taux d'interaction dépend de la pression atmosphérique, c'est-à- dire de l'altitude; au contraire, le taux de désintégration est indépendant de l'altitude mais inversement proportionnel à l'énergie à cause de la dilatation de Lorentz. La méthode itérative utilisée avec tant d'efficacité pour la composante électromagnétique, pour laquelle la longueur de radiation est la seule échelle pertinente, n'est plus praticable. Le problème essentiel de l'extrapolation des données d'accélérateurs aux grandes gerbes d'UHECRs n'est pas tant l'énergie que la rapidité. De fait, 20 EeV dans le laboratoire correspondent à 200 TeV dans le centre de masse, seulement deux ordres de grandeur au dessus des énergies du Tevatron et un seul au dessus des énergies du LHC. La lente évolution de la physique hadronique en raison directe du logarithme de l'énergie rend peu probable qu'une extrapolation des données des collisionneurs vers les énergies des UHECRs soit grossièrement erronée. Par contre, en termes de rapidité, les gerbes UHECR sont dominées par la production vers l'avant, une région inaccessible aux collisionneurs. En particulier, il n'existe aucune mesure précise des inélasticités et de la forme du front avant du plateau de rapidité, toutes deux essentielles au développement des gerbes UHECR. Le modèle développé dans la thèse fait de l'inélasticité un paramètre ajustable et la forme du plateau de rapidité est accessible de façon transparente. Une attention particulière est consacrée aux caractéristiques de la gerbe qui permettent l'identification de la nature des primaires, noyaux de fer ou protons. Ceci concerne essentiellement la première interaction: une fois que le noyau primaire a interagi, le développement de la gerbe ne met plus en jeu que des interactions nucléon-air ou méson-air. Là encore, il n'existe pas de données de collisionneurs permettant de décrire les interactions de noyaux et de pions avec l'atmosphère dans le domaine d'énergie qui nous intéresse. Le modèle utilisé ici permet un accès facile et transparent aux paramètres pertinents. La présentation qui est donnée du modèle limite ses ambitions à en décrire les traits essentiels, laissant pour une phase ultérieure l'étude de la densité des muons au sol. L'accent est mis sur le développement de ce nouvel outil et sur son adéquation aux problèmes qu'il entend aborder mais son utilisation dépasse le cadre de la thèse et fera l'objet d'études ultérieures.
130

Nanoparticules et microfluidique pour un système modèle d'émulsions de Pickering. Etude des mécanismes de stabilisation et déstabilisation.

Fouilloux, Sarah 23 September 2011 (has links) (PDF)
Les émulsions stabilisées par des particules solides sont connues et étudiées depuis le début du XXème siècle, dans le but de comprendre les propriétés originales qu'elles présentent. Afin de rationaliser ces systèmes, nous développons un système modèle basé sur l'utilisation de techniques microfluidiques pour la fabrication de gouttes et de nanoparticules de silice onodisperses pour les stabiliser. La première partie de ce travail porte sur 'optimisation et la compréhension de la synthèse diphasique des nanoparticules dans le cadre de la Théorie Classique de la Nucléation. Ces nanoparticules sont ensuite utilisées pour stabiliser des gouttes d'huiles ormées dans une puce microfluidique, ce qui permet de découpler les différents phénomènes conduisant à l'obtention d'une émulsion : création de surface, adsorption des particules, coalescence des gouttes. Les émulsions collectées peuvent être déstabilisées par ajout d'un solvant dans la phase continue, provoquant la formation de gouttes non sphériques ou la séparation totale des eux phases. Enfin, nous examinons les mécanismes permettant d'expliquer la stabilisation ou la déstabilisation provoquée des gouttes par des nanoparticules.

Page generated in 0.0375 seconds