• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 48
  • 27
  • 9
  • 2
  • 1
  • Tagged with
  • 84
  • 37
  • 30
  • 27
  • 26
  • 24
  • 21
  • 21
  • 19
  • 19
  • 14
  • 14
  • 13
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Etude de la calibration et de la reconstruction des cartes du ciel avec les données Planck-HFI / Study of Calibration and Mapmaking algorithms for Planck-HFI data

Filliard, Clement 13 July 2012 (has links)
N.c. / N.c.
22

Les galaxies infrarouges : distribution spatiale, contributions au fond extragalactique et distributions spectrales d'énergie.

Bavouzet, Nicolas 12 September 2008 (has links) (PDF)
Si la formation des grandes structures de l'Univers est plutot bien comprise, celle des galaxies ainsi que leur évolution l'est beaucoup moins. On s'intéresse en particulier aux mécanismes de mise en route de la formation stellaire dans les galaxies. L'étude des galaxies lumineuses en infrarouge constitue une des approches pour répondre à ces questions. Le travail effectué au cours de cette thèse repose essentiellement sur l'analyse de données infrarouges provenant du satellite Spitzer.<br /><br />La première partie de ce travail porte sur l'étude de la<br />distribution spatiale des galaxies infrarouges. Nous avons introduit une nouvelle méthode pour mesurer la fonction de corrélation angulaire des galaxies. Cette méthode a été validée sur des simulations et des données. Nous avons également montré comment les effets de corrélation spatiale pouvaient biaiser les mesures de flux moyen réalisées par la méthode d'empilement. De plus, la<br />fonction de corrélation angulaire mesurée pour les sources sélectionnées à 3.6 microns et 24 microns montre un excès de corrélation aux petites échelles angulaires. Ceci pourrait être lié à l'interaction des galaxies à l'intérieur d'un meme halo de matière noire qui favoriserait alors les mécanismes d'émission infrarouge.<br /><br />Dans un second temps, nous nous sommes attachés à mieux caractériser le fond diffus infrarouge (CIB) en déterminant la contribution à ce fond des sources détectées à 3.6 microns et en la comparant à celle des sources sélectionnées à 24 microns. Nous avons également estimé la contribution au CIB à 3.6 et 24 microns des sources sélectionnées à 3.6 microns en fonction de leur taux de formation stellaire spécifique.<br /><br />Enfin, nous avons étudié les distributions spectrales d'énergie d'un grand nombre de galaxies situées entre z=0 et z=2 : nous avons montré d'une part que les luminosités à 8 et 24 microns étaient de bons traceurs de la luminosité totale infrarouge (et donc du taux de formation stellaire) et, d'autre part, que les propriétés de ces galaxies ne semblaient pas évoluer entre entre z=0 et z=1. Nous avons également étudié de façon détaillée le spectre infrarouge de 17 galaxies sélectionnées à 70 microns et nous avons montré que la luminosité relative des PAHs diminuait lorsque le champ de rayonnement<br />augmentait.
23

Archeops et Planck-HFI : Etudes des systématiques pour l'analyse du fond diffus cosmologique

Henrot-Versillé, Sophie 13 June 2006 (has links) (PDF)
Les travaux présentés dans ce manuscrit ont comme fil conducteur la compréhension des détecteurs des instruments Archeops et Planck-HFI ainsi que la lutte contre les effets systématiques dans le but de reconstruire le spectre de puissance des anisotropies de température du Fond Diffus Cosmologique. <br />Après une introduction sur la physique, nous décrivons, dans une première partie, l'étalonnage des bolomètres des deux instruments à partir de sources pulsées constituées de fibres de carbone que nous avons mises au point pour mesurer les fuites optiques entre les différents étages cryogéniques du plan focal. Nous montrons l'analyse de ces fuites optiques à partir des données d'Archeops, ainsi que les mesures de diaphonie et de constantes de temps des bolomètres du modèle cryogénique de Planck-HFI. Nous présentons également l'analyse de la conductivité thermique et de la capacité calorifique des fibres afin de modéliser le comportement thermique et l'émission de ces sources.<br />La seconde partie est consacrée à l'étude des effets systématiques de l'analyse des anisotropies. Nous décrivons les mesures des lobes au sol et en vol, l'analyse des constantes de temps des bolomètres et l'étalonnage en flux à partir des données sur Jupiter pour Archeops. Nous montrons ensuite comment extraire les spectres de Fourier sur les cercles et comment cette dernière analyse nous renseigne sur le fond diffus, ce que nous illustrons avec les données de vol d'Archeops.<br />Le dernier chapitre présente un projet de mission submillimétrique permettant de cartographier tout le ciel à grande résolution dans le but de mesurer la polarisation de la poussière dans la galaxie.
24

Les fluctuations du fond diffus extragalactique et ses avant-plans, de l'infrarouge au domaine millimétrique

Sorel, Maud 08 July 2005 (has links) (PDF)
Cette thèse présente un travail sur le fond diffus extragalactique dans les domaines de longueurs d'onde infrarouge et millimétrique. (1) L'étude de la couleur (ou rapport de brillance) des cirrus aux longueurs d'onde 60 et 100 microns a montré une augmentation de celle-ci de B(60)/B(100)=0.21 à 0.28 pour des brillances inférieures à B(100)=3 MJy/sr. Ceci se traduit par une augmentation des très petits grains de poussières dans les régions diffuses de haute latitude provoquée par l'érosion et la fragmentation des grains par les ondes de choc des supernovae. (2) La séparation entre les cirrus et les fluctuations du fond diffus infrarouge extragalactique à l'aide des couleurs B(60)/B(100), B(60)/B(170), B(100)/B(170) s'est révélée non efficace, car les spectres des deux composantes sont trop proches à ces longueurs d'onde. Il faudra renouveler l'étude aux plus grandes longueurs d'onde de Planck et Herschel. (3) Le spectre de puissance des fluctuations du fond diffus infrarouge extragalactique ne montre aucune corrélation particulière. On en déduit un biais des galaxies infrarouges inférieur à 0.6. Ceci implique que les galaxies formant les fluctuations du fond sont à bas redshift. On espère détecter des corrélations en sondant les cartes plus grandes de SPITZER. (4) la séparation statistique du fond diffus cosmologique (FDC) et de l'effet Sunyaev-Zel'dovich (SZ) cinétique pourrait se faire à l'aide d'une loi à priori entre l'effet SZ cinétique et le produit de covariance entre la carte de mélange (FDC+SZ cinétique) et l'effet SZ thermique.
25

Robust microphone array signal processing against diffuse noise

Ito, Nobutaka 24 January 2012 (has links) (PDF)
Nous étudions le problème général du traitement d'antennes de microphones dans des environnements contenant du bruit diffus. Ce problème a plusieurs applications incarnées par le rehaussement et la reconnaissance robuste de la parole. Du bruit diffus provenant de nombreuses directions à la fois est souvent rencontré dans les situations réelles et il forme un obstacle majeur à l'application des techniques existantes de localisation et de réhaussement de sources. Nous opérons dans le domaine temps-fréquence, où la cible et le bruit sont gaussiens de moyenne nulle et modélisés par leurs matrices de covariance. Premièrement, nous introduisons un modèle général de sous-espace linéaire de la matrice de covariance du bruit qui généralise trois modèles de l'état de l'art et nous proposons un quatrième modèle de covariance à valeur réelle plus flexible. Nous mesurons expérimentalement l'adéquation de ces modèles à des signaux de bruits réels. Deuxièmement, nous appliquons ce modèle général à la tâche de débruitage pour une cible de vecteur de direction connu. Dans l'approche de l'état de l'art par formation de voies et post-filtrage de Wiener, il est essentiel d'estimer précisément le spectre de puissance à court terme de la cible. Nous proposons un algorithme pour l'estimation de ce spectre basé sur la projection de la matrice de covariance observée sur le complément orthogonal du sous-espace de la matrice de covariance du bruit. La composante résultant de cette projection est idéalement non contaminée par le bruit, ce qui permet une estimation plus précise du spectre de puissance de la cible. Nous évaluons expérimentalement la performance de débruitage avec des signaux de bruits réels. Troisièmement, nous étudions la tâche de localisation de sources multiples. Afin d'atténuer la dégradation de performance de l'algorithme de l'état de l'art MUltiple SIgnal Classification (MUSIC) en présence de bruit diffus, nous estimons la matrice de covariance de la cible et appliquons MUSIC à cette matrice. Cette estimation repose sur la composante non bruitée de la matrice de covariance de la cible estimée ci-dessus par projection et sur la reconstruction de la composante manquante par des techniques de complétion de matrice. Nous proposons deux algorithmes alternatifs basés sur une approximation de rang faible et sur la minimisation de la norme trace en exploitant le faible rang et la nature hermitienne définie semi-positive de la matrice de covariance du signal. Nous comparons la performance de ces deux algorithmes pour les quatre modèles de bruit sur un corpus que nous avons créé. Enfin, nous présentons un algorithme général pour le débruitage d'une source cible dont le vecteur de direction est inconnu. Cette tâche est importante dans un environnement réel, car le vecteur de direction n'est généralement pas connu précisément en pratique. Nous estimons conjointement le vecteur de direction et le spectre de puissance à court terme de la cible pour effectuer la formation de voies et le post-filtrage de Wiener. L'estimation repose sur une complétion de matrice de rang 1 et sur une analyse en composantes principales (ACP). L'algorithme proposé améliore la rapport signal-à-bruit (RSB) de 7 dB environ par rapport à l'algorithme de l'état de l'art d'analyse en vecteurs indépendants (AVI).
26

Optimisation de dispositifs électromagnétiques dans un contexte d'analyse par la méthode des éléments finis

Caldora Costa, Mauricio 28 June 2001 (has links) (PDF)
Dans ce travail, nous proposons des solutions à la problématique constituée par les difficultés rencontrées dans l'optimisation de dispositifs électromagnétiques analysés par des méthodes de simulation numérique, notamment la Méthode des Eléments Finis. Parmi les difficultés, nous avons la grande diversité des problèmes, la recherche d'une solution globale, l'échange des données entre l'outil de simulation et l'outil d'optimisation et le temps de calcul onéreux pour atteindre une solution. Nous commençons par une description des méthodes les plus utilisées dans la résolution de problèmes d'optimisation, dans laquelle nous mettons en évidence leurs particularités et les principales caractéristiques qu'elles ont en commun. Après cette récapitulation, nous présentons l'architecture logiciel d'un outil d'optimisation idéalisée en s'appuyant sur les concepts de la Programmation Orientée Objet. Dans l'implémentation de cette architecture, nous considérons les difficultés issues des problèmes liés à la simulation numérique et nous proposons une nouvelle approche d'optimisation basée sur la Méthode des Plans d'Expérience. Pour valider cette nouvelle approche, nous présentons trois différentes applications en électrotechnique : l'optimisation d'un moteur à reluctance variable, l'optimisation d'un contacteur électromagnétique et la résolution du problème 25 du TEAM Worshop.
27

Stellenwert der einzeitigen operativen Peritonitistherapie / (Relaparotomie on demand) / Significance of single-stage surgical treatment of diffuse peritonitis / (relaparotomy on demand)

Pauly, Stephan Thomas 17 December 2007 (has links)
No description available.
28

Algorithmes et architectures multi-agents pour la gestion de l'énergie dans les réseaux électriques intelligents

Roche, Robin 07 December 2012 (has links) (PDF)
Avec la convergence de plusieurs tendances profondes du secteur énergétique, lesréseaux électriques intelligents (smart grids) émergent comme le paradigme principal pourla modernisation des réseaux électriques. Les smart grids doivent notamment permettred'intégrer de larges proportions d'énergie renouvelable intermittente, de stockage et devéhicules électriques, ainsi que donner aux consommateurs plus de contrôle sur leur consommationénergétique. L'atteinte de ces objectifs repose sur l'adoption de nombreusestechnologies, et en particulier des technologies de l'information et de la communication.Ces changements transforment les réseaux en des systèmes de plus en plus complexes,nécessitant des outils adaptés pour modéliser, contrôler et simuler leur comportement.Dans cette thèse, l'utilisation des systèmes multi-agents (SMA) permet une approchesystémique de la gestion de l'énergie, ainsi que la définition d'architectures et d'algorithmesbénéficiant des propriétés des SMA. Cette approche permet de prendre en compte lacomplexité d'un tel système cyber-physique, en intégrant de multiples aspects commele réseau en lui-même, les infrastructures de communication, les marchés ou encore lecomportement des utilisateurs. L'approche est mise en valeur à travers deux applications.Dans une première application, un système de gestion de l'énergie pour centrales àturbines à gaz est conçu avec l'objectif de minimiser les coûts de fonctionnement et lesémissions de gaz à effet de serre pour des profils de charge variables. Un modèle de turbineà gaz basé sur des données réelles est proposé et utilisé dans un simulateur spécifiquementdéveloppé. Une métaheuristique optimise dynamiquement le dispatching entre les turbinesen fonction de leurs caractéristiques propres. Les résultats montrent que le systèmeest capable d'atteindre ses objectifs initiaux. Les besoins en puissance de calcul et encommunication sont également évalués.Avec d'autres mesures de gestion de la demande, l'effacement diffus permet de réduiretemporairement la charge électrique, par exemple dans la cas d'une congestion du réseaude transport. Dans cette seconde application, un système d'effacement diffus est proposéet utilise les ressources disponibles chez les particuliers (véhicules électriques, climatisation,chauffe-eau) pour maintenir la demande sous une valeur limite. Des aggrégateursde capacité de réduction de charge servent d'interface entre les opérateurs du réseau etun marché de l'effacement. Un simulateur est également développé pour évaluer la performancedu système. Les résultats de simulations montrent que le système réussit àatteindre ses objectifs sans compromettre la stabilité du réseau de distribution en régimecontinu.
29

Cosmologie observationnelle avec le satellite Planck : étude d'effets systématiques de l'instrument HFI et de l'ionisation de l'univers

Sanselme, Lilian 20 September 2013 (has links) (PDF)
Le satellite Planck a été conçu pour mesurer de manière ultime les anisotropies primairesen température du fond diffus cosmologique (CMB), et améliorer les contraintes existantes sursa polarisation. La première partie de cette thèse s'inscrit dans le cadre du traitement des donnéesde l'instrument à haute fréquence de ce satellite. Les propriété statistiques du bruit sonttestée. Des effets systématiques dans l'estimateur du bruit sont ainsi détectés, et certains ontpu être corrigés. La sélection des données à projeter sur les cartes est ensuite présentée, ainsique la validation de la qualité de ces données. Cette sélection est finalement comparée à unesélection pour laquelle les critères sont beaucoup plus sévères, afin de vérifier que l'impactdes données imparfaites résiduelles est négligeable. Nous montrons que les données validéespour une utilisation scientifique répondent bien aux exigences de gaussianité et de stationnarité: des effets instrumentaux ne devraient pas induire de fausses conclusions cosmologiques.La seconde partie porte sur l'interprétation des données ainsi obtenues. Le modèle de concordanceest présenté, ainsi que les résultats rendus publiques par la collaboration Planck en 2013.La troisième partie est dédiée à deux études phénoménologiques concernant l'ionisation del'Univers. Premièrement, l'influence de l'annihilation de matière noire sur le spectre du CMBest étudiée : une méthode pour estimer l'impact de l'incertitude des canaux par lesquels sefont ces dépôts d'énergie est développée. Il ressort que les hypothèses sur la façon exacte dontl'énergie s'injecte dans le plasma ne sont pas cruciales pour retrouver les paramètres associée àl'annihilation. Deuxièmement, l'époque de la Réionisation et son rôle dans le spectre du CMBest présentée, avec l'analyse d'une paramétrisation de la fraction d'ionisation. Nous montronsla fiabilité des différents algorithmes dans le cas où la fraction d'ionisation est constante parmorceaux, c'est-à-dire même en présence de fortes discontinuités.
30

Compréhension, modélisation et détection de tumeurs cérébrales : modèles graphiques et méthodes de recalage/segmentation simultanés

Parisot, Sarah 18 November 2013 (has links) (PDF)
L'objectif principal de cette thèse est la modélisation, compréhension et segmentation automatique de tumeurs diffuses et infiltrantes appelées Gliomes Diffus de Bas Grade. Deux approches exploitant des connaissances a priori de l'ordre spatial et anatomique ont été proposées. Dans un premier temps, la construction d'un atlas probabiliste qui illustre les positions préférentielles des tumeurs dans le cerveau est présentée. Cet atlas représente un excellent outil pour l'étude des mécanismes associés à la genèse des tumeurs et fournit des indications sur la position probable des tumeurs. Cette information est exploitée dans une méthode de segmentation basée sur des champs de Markov aléatoires, dans laquelle l'atlas guide la segmentation et caractérise la position préférentielle de la tumeur. Dans un second temps, nous présentons une méthode pour la segmentation de tumeur et le recalage avec absence de correspondances simultanés. Le recalage introduit des informations anatomiques qui améliorent les résultats de segmentation tandis que la détection progressive de la tumeur permet de surmonter l'absence de correspondances sans l'introduction d'un à priori. La méthode est modélisée comme un champ de Markov aléatoire hiérarchique et à base de grille sur laquelle les paramètres de segmentation et recalage sont estimés simultanément. Notre dernière contribution est une méthode d'échantillonnage adaptatif guidé par les incertitudes pour de tels modèles discrets. Ceci permet d'avoir une grande précision tout en maintenant la robustesse et rapidité de la méthode. Le potentiel des deux méthodes est démontré sur de grandes bases de données de gliomes diffus de bas grade hétérogènes. De par leur modularité, les méthodes proposées ne se limitent pas au contexte clinique présenté et pourraient facilement être adaptées à d'autres problèmes cliniques ou de vision par ordinateur.

Page generated in 0.0299 seconds