• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 665
  • 192
  • 75
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 963
  • 354
  • 284
  • 190
  • 150
  • 103
  • 94
  • 91
  • 89
  • 89
  • 87
  • 86
  • 83
  • 82
  • 70
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
491

Multiprogrammation parallèle générique des méthodes de décomposition de domaine

Schwertner-Charão, Andréa 20 September 2001 (has links) (PDF)
Les applications de simulation numérique nécessitant la résolution de problèmes d'Équations aux Dérivées Partielles (EDP) sont souvent parallélisées à l'aide d'une méthode de décomposition de domaine. Ces méthodes mathématiques sont naturellement ouvertes au parallélisme, cependant leur exploitation efficace sur les machines parallèles devient difficile lorsque les applications ont un comportement irrégulier. C'est le cas par exemple lorsque les problèmes mathématiques sont résolus dans des domaines géométriques complexes ou lorsque l'on utilise des techniques d'adaptation de maillage. Une technique de programmation se prêtant bien à la mise en oeuvre d'applications irrégulières est la multiprogrammation basée sur des réseaux de processus légers communicants. Dans cette thèse nous réalisons une étude approfondie de l'apport de ce paradigme de programmation à la résolution de problèmes d'EDP par des méthodes de décomposition de domaine et nous montrons qu'il existe une écriture algorithmique générique de celles-ci. Une de nos principales contributions réside dans la conception et réalisation d'un harnais informatique, appelé Ahpik, permettant une programmation aisée d'applications reposant sur les méthodes de décomposition de domaine. Ce harnais fournit un support générique adaptable à de nombreuses méthodes mathématiques, qu'elles soient synchrones ou asynchrones, avec ou sans recouvrement. Une conception orientée objet permet d'encapsuler les détails de gestion des processus légers et des communications, ce qui facilite l'implantation de nouvelles méthodes. Nous avons utilisé l'environnement Ahpik dans le cadre de la résolution de problèmes d'EDP classiques et notamment pour un problème en mécanique de fluides de grande taille.
492

Le rôle médiateur de la verbalisation entre les aspects figuraux et théoriques dans un problème de démonstration en géométrie plane

Robotti, Elisabetta 19 June 2002 (has links) (PDF)
Notre recherche porte sur l'analyse du rôle du langage naturel dans les allers et retours entre domaine théorique et domaine graphique lors d'un processus de démonstration en géométrie plane par des élèves qui travaillent en dyade. Nous nous appuyons en d'abord sur deux hypothèses de recherche : l'une qui considère le langage comme outil d'analyse du discours en tant que révélateur des démarches de résolution, l'autre qui considère le langage comme outil de résolution pour les élèves en tant que médiateur pour la construction et la maîtrise de la pensée. En outre, nous faisons l'hypothèse que l'avancement du processus de résolution passe par l'évolution des échanges verbaux, en se déplaçant d'un mode d'expansion discursive d'accumulation à un mode d'expansion discursive de substitution, et par le changement de la valeur des propositions émises, en passant d'une valeur épistémique à une valeur de vérité. Nous proposons de relever les traces de ces évolutions grâce à l'analyse du discours des binômes observés en retenant l'usage de certaines unités linguistiques comme révélateur d'un type d'expansion discursive. En revanche, pour ce qui concerne l'analyse fonctionnelle du langage en tant qu'outil de résolution, nous retenons l'idée que le langage est outil pour la construction et la maîtrise de la pensée du sujet. Cette perspective nous a permis de dégager les conditions et les modalités d'apparition de diverses fonctions du langage telles la fonction de guide (rôle des verbalisations des théorèmes et de l'instanciation), la fonction de planification (planification d'un enchaînement de pas de déductions), la fonction de contrôle (liée à la fonction de guidage qui permet de revenir sur les pas du processus) et les fonctions de référence et d'association (rôle des mots et des configurations-étiquettes). Cette catégorisation permet de repérer l'importance relative des fonctions exercées par le langage dans les protocoles en tant qu'outil pour l'avancement du processus, et de repérer des conditions pour que ces fonctions se mettent en place et s'exercent.
493

Première observation de la transition fortement interdite 1S0-3P0 du strontium, pour une horloge optique à atomes piégés

Courtillot, Irene 21 November 2003 (has links) (PDF)
Ce mémoire rapporte les premiers résultats d'une expérience visant à développer une horloge optique à atomes de strontium piégés. Ce dispositif réunit les avantages des différentes techniques utilisées jusqu'à présent pour réaliser un étalon de fréquence atomique. La première partie décrit la réalisation de la source d'atomes froids. Un piège magnéto-optique fonctionnant sur la transition 1S0-1P1 à 461nm est chargé à partir d'un jet atomique décéléré par un ralentisseur Zeeman. La source à 461nm est réalisée par somme de fréquence dans un cristal de KTP. Dans la deuxième partie sont détaillées les étapes mises en oeuvre pour effectuer la détection par excitation directe de la transition d'horloge 1S0-3P0 du 87Sr, de 1mHz de largeur de raie théorique. Préalablement à cette observation, une première estimation de la fréquence de la transition d'horloge a été obtenue en mesurant la fréquence absolue de plusieurs résonances optiques plus largement permises.
494

MÉTHODES MARKOVIENNES EN ESTIMATION SPECTRALE NON PARAMETRIQUES. APPLICATION EN IMAGERIE RADAR DOPPLER

CIUCIU, Philippe 05 October 2000 (has links) (PDF)
Nous étudions Le problème de l'estimation spectrale dans la situation défavorable où très peu de données sont disponibles, et nous l'abordons sous l'angle de la synthèse de Fourier. Dans ce cadre, l'estimation spectrale s'identifie à un problème inverse linéaire sous-déterminé. Il convient de le régulariser sur la base d'informations a priori portant sur la forme du spectre, en définissant un critère composé d'une fonction de pénalisation et d'un terme d'attache aux données. Le minimiseur global de ce critère définit le spectre solution. Cette fonction de pénalisation est associée spécifiquement à chaque forme spectrale; sont étudiés les spectres impulsionnels, réguliers, et mélangés, où un fond continu se superpose à un spectre de raies. L'accent est mis sur la construction de fonctions de pénalisation convexes d'une part, car elles garantissent le caractère bien posé du problème régularisé et facilitent le calcul de la solution, et circulaires d'autre part, ie qui ne dépendent que des modules des coefficients de Fourier recherchés. De plus, nous retenons une fonction séparable pour estimer des raies, un terme markovien pour le cas régulier et une énergie composite pour le cas mélangé. Le choix d'une pénalisation convexe nous amène pour les cas régulier et mélangé, à considérer une fonction non différentiable en zéro. Le recours à une stratégie de Non Différentiabilité Graduelle permet d'obtenir une solution à faible coût calculatoire. Sur le plan algorithmique, la méthode IRLS s'avère la plus efficace mais ne s'applique qu'à l'estimation de raies. Nous proposons donc des généralisations aux autres cas reposant sur l'interprétation semi-quadratique augmentée de la pénalisation. La méthode de relaxation par blocs résultante est convergente et compétitive avec un algorithme de gradient pseudo-conjugué. Enfin, l'intérêt et l'efficacité des méthodes développées sont illustrés sur signaux synthétiques et réels dans le cadre de l'imagerie radar Doppler.
495

Résolution dans des bolomètres équipés de couches minces d'isolant d'Anderson pour des événements impliquant des reculs de noyaux

Juillard, Alexandre 25 October 1999 (has links) (PDF)
Les bolomètres sont des détecteurs fonctionnant à très basse température et mesurant l'énergie déposée par les effets thermiques induits. Toutes les excitations dans un solide finissant sous forme de chaleur (phonons), les bolomètres sont des détecteurs universels capables de mesurer l'énergie de rayonnements ionisants ou non.<br> La résolution ultime d'un bolomètre, du point de vue de la thermodynamique, décroît sans limites avec la température, cependant, dans le cas d'événements impliquant des reculs de noyaux dans un absorbeur solide, des mécanismes de piégeage de l'énergie peuvent limiter la résolution à des valeurs bien plus élevées. Nous avons analysé ces phénomènes dans la perspective d'appréhender la limite en résolution pour la détection d'ions éventuellement sur faisceau et dans la recherche de WIMPs, hypothétiques composants de la Matière Noire non baryonique.<br> Nous avons élaboré et caractérisé des bolomètres de masses et de géométries diverses, tous équipés de senseurs thermométriques en couches minces de NbxSi1-x. Les propriétés de ces couches en tant qu'isolant d'Anderson, ainsi que leur sensibilité aux phonons hors d'équilibre ont été étudiées. Nous avons ainsi comparé et interprété les résolutions expérimentales obtenues en régime thermique et athermique. La meilleure résolution que nous avons obtenue est de 0.34%, soit 18 keV sur des particules alpha de 5.5 MeV. Ce résultat est au dessus de nos estimations théoriques, nos bolomètres ont donc une importante marge de progression possible.
496

Construction du bouchon du calorimètre électromagnétique d'ATLAS et études de ses performances

Barrillon, Pierre 05 September 2002 (has links) (PDF)
ATLAS est l'une des quatre expériences qui fonctionneront auprès du LHC, le futur collisionneur à protons du CERN. Cet accélérateur, dont le démarrage est prévu en 2007, permettra de prolonger les études menées auprès de ses prédécesseurs, telles que les recherches du boson de Higgs du modèle standard ou de signatures d'une nouvelle physique. Ces études seront facilitées par la puissance du LHC : énergie de 14 TeV dans le centre de masse et luminosité intégrée annuelle de 10 fb-1 durant les trois premières années, puis de 100 fb-1.<br> Dans le cadre de la collaboration ATLAS, le Centre de Physique des Particules de Marseille a en charge, entre autre, la construction de la moitié des modules qui composent le bouchon du calorimètre électromagnétique. La description de ce sous-détecteur et les étapes de sa construction, en particulier les tests électriques qui permettent la validation du montage de chaque module, sont présentées dans ce document. Les résultats de ces tests, obtenus pour les cinq premiers modules de série, sont analysés.<br> Les performances d'un module de pré-série (module 0), testé sous faisceau au CERN en 1999, sont également exposées. Les études menées sur l'uniformité de la réponse du détecteur ont permis d'effectuer des améliorations importantes sur les constituants du calorimètre. Un terme constant global de 0.6% a été déterminé dans la partie (roue) interne du bouchon.
497

Contribution à l'analyse et à l'approximation des problèmes d'identification, de reconstruction et des systèmes d'équations elliptiques non linéaires

Nachaoui, Abdeljalil 12 June 2002 (has links) (PDF)
Ce travail est divisé en deux axes de recherches. Le premier axe concerne l'étude de quelques systèmes d'équations aux dérivées partielles non linéaires issus de la modélisation macroscopique des composants semi-conducteurs. Le deuxième axe de recherche est consacré à l'étude de quelques problèmes d'identification. Nous nous intéressons en particulier à deux types de problèmes d'identification. Le premier concerne la reconstruction des données sur le bord pour des problèmes elliptiques. Le deuxième type de problèmes auquel nous nous sommes intéressés est celui de l'identification des frontières dans des problèmes gouvernés par des équations elliptiques.
498

Simulations du climat des calottes de glace

Krinner, Gerhard 02 December 1997 (has links) (PDF)
Ce travail traite de la simulation numérique du climat des grandes calottes de glace, en particulier des calottes de l'Antarctique et du Groenland, toujours existantes, dans des conditions climatiques différentes, à l'aide de modèles de circulation générale de l'atmosphère (MCGA). Le MCGA à grille variable LMDz a été adapté aux spécificités du climat polaire et validé pour le climat actuel. L'approche d'une grille variable, qui permet d'utiliser le MCGA à haute résolution spatiale (autour de 100 km) sur la région d'intérêt à un coût numérique raisonnable, a été validée en analysant la dynamique atmosphérique au bord de la région ciblée à l'aide d'un schéma de suivi des cyclones individuels. Des simulations du climat du Dernier Maximum Glaciaire (DMG) ont été faites pour le Groenland et l'Antarctique et analysées en tenant compte des archives glaciaires disponibles. Une explication possible des différences entre les deux méthodes principales de reconstruction des paléotempératures - l'analyse des isotopes de l'eau et la mesure directe de la température de la glace dans le trou de forage - au centre du Groenland a pu être proposée. Cette explication est basée sur des changements de paramètres climatiques locaux. C'est la première fois que l'approche de grille variable a été utilisée dans un MCGA pour des simulations du climat polaire à l'échelle de quelques années. Les simulations paléoclimatiques faites avec LMDz sont à une résolution spatiale inégalée à ce jour. Finalement, le climat du DMG, simulé par plusieurs MCGA dans le cadre du projet international PMIP (Paleoclimate Modelling Intercomparison Programme), a été analysé, et des implications des résultats pour l'interprétation des enregistrements glaciaires ont été discutées.
499

Optique adaptative et grands télescopes

Kern, Pierre 25 June 1990 (has links) (PDF)
Sévèrement limité par la turbulence atmosphérique, les grands télescopes au sol ne sont pas capables d'atteindre leur limite de résolution intrinsèque de manière directe. En fonctionnement normal, ils ne peuvent pas résoudre plus de détails, aux longueurs d'ondes du visible et du proche infrarouge qu'un télescope de quelques décimètres de diamètre. La technique d'optique adaptative décrite ici, offre l'avantage sur les autres techniques, d'un traitement du front d'onde avant la détection du signal. Lorsque la détection n'est pas limitée par le bruit propre du signal incident ce traitement permet d'améliorer significativement le rapport signal sur bruit. La correction est réalisée par un miroir déformable dont les commandes sont calculées à partir des mesures des perturbations de la surface d'onde. Les limitations de cette instrumentation sont données par le nombre d'actuateurs du miroir, la précision de la mesure du front d'onde, liée au flux disponible pour réaliser la mesure, et à la bande passante de l'asservissement. Cette bande passante est surtout liée à la fréquence d'échantillonnage du signal d'erreur, et à la vitesse de calcul dans la boucle d'asservissement. Nous donnons la description d'un instrument testé en observatoire au cours de l'automne 1989. Le front d'onde corrigé au moyen d'un miroir déformable de 19 actuateurs, a permis d'obtenir en temps réel, des images limitées par la diffraction pour des longueurs d'onde supérieures à 2,2um, au foyer coudé du télescope de 1,52 m de l'OHP. La mesure de la perturbation est réalisée par un analyseur de Shack-Hartmann de 5x5 sous-pupilles pour échantillonner le signal à une fréquence de 100 Hz. La bande passante obtenu est de 9 Hz en boucle ouverte à 0 dB. Les résultats qui sont présentés illustrent l'intérêt de cette technique pour l'imagerie infrarouge en astronomie
500

Compensation du mouvement respiratoire en TEP/TDM à l'aide de la super-résolution.

Wallach, Daphné 14 October 2011 (has links) (PDF)
La tomographie par émission de positons (TEP) est une modalité d'imagerie fonctionnelle incontournable pour le diagnostic et le suivi thérapeutique en oncologie. De nouvelles applications telles que la radiothérapie guidée par l'imagerie fonctionnelle sont en cours d'investigation. Les images TEP souffrent toutefois d'une faible résolution spatiale, encore dégradée par les effets du mouvement respiratoire du patient dans le thorax et l'abdomen. La grande majorité des solutions proposées pour la correction de ce mouvement respiratoire reposent sur l'enregistrement du signal respiratoire pendant l'acquisition TEP et de la synchronisation de l'acquisition avec ce signal respiratoire. Les données peuvent ainsi être séparées selon la partie du cycle respiratoire pendant laquelle elles ont été acquises. Les données correspondant à une même position peuvent ensuite être sommées et reconstruites. Les images résultantes sont cependant de qualité réduite, car elles ne contiennent qu'une portion de l'information. Il est donc nécessaire de les combiner. Les solutions disponibles actuellement proposent de recaler et sommer les données synchronisées, avant, pendant, ou après leur reconstruction, ce qui produit une image sans mouvement de qualité proche de celle qui aurait pu être obtenue en l'absence de mouvement respiratoire. La super-résolution vise à améliorer la résolution d'une image appartenant à une séquence d'images représentant différentes vues de la même scène. Elle exploite le mouvement présent dans cette séquence afin d'obtenir une image d'une résolution supérieure à celle permise par le système d'imagerie et ne contenant pas de recouvrement de spectre. Le but de cette thèse est d'appliquer une telle technique pour compenser le mouvement respiratoire. Nous avons d'abord appliqué un algorithme de super-résolution déjà existant à une séquence d'images TEP synchronisées avec la respiration, ce qui représente une application inédite. Cette technique permet de corriger efficacement les effets du mouvement respiratoire. Les méthodes de correction du mouvement respiratoire sont souvent plus performantes lorsqu'elles sont incorporées à la reconstruction plutôt qu'appliquées aux images reconstruites. C'est pourquoi nous avons ensuite développé de nouveaux algorithmes de reconstruction TEP incorporant la super-résolution. Les images ainsi reconstruites sont de meilleure qualité que celles corrigées par super-résolution après reconstruction. Enfin, nous avons montré que la correction du mouvement respiratoire par super-résolution permet une précision accrue dans la planification du traitement par radiothérapie.

Page generated in 0.2717 seconds