• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 228
  • 73
  • 42
  • 1
  • Tagged with
  • 347
  • 105
  • 84
  • 78
  • 75
  • 71
  • 70
  • 62
  • 61
  • 60
  • 55
  • 54
  • 52
  • 51
  • 48
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Caractérisation de la variabilité climatique Holocène à partir de séries continentales, marines et glaciaires

Debret, Maxime 23 October 2008 (has links) (PDF)
L'objectif de la thèse est de caractériser la variabilité climatique de la période Holocène (10 000-0 ans) en analysant des séries climatiques d'enregistrements marins, continentaux, glaciaires. Les enregistrements d'Atlantique Nord et Sud ainsi que l'océan Austral ont permis d'identifier deux types de fréquences millénaires : les premières s'expriment pendant le début de l'Holocène (10 000-5 000 BP) et sont similaires aux fréquences solaires, les secondes, pendant la fin de l'Holocène, suggèrent un forçage interne océanique. Ce schéma Holocène avec une circulation océanique qui s'établit à un régime stable à partir de 5 000 ans coïncide avec l'établissement du niveau marin à son niveau proche de l'actuel, en lien avec la disparition de la calotte Laurentides et les drainages d'eau douce en Atlantique Nord. À partir de 5 000 ans, les flux d'eau douce ne perturbent plus le gradient de salinité permettant l'établissement de la circulation thermohaline à son régime stable. En Antarctique, de nouvelles séries de données poussières couvrant les 2000 dernières années à Dôme C et Vostok ont été produites. Sur la période Holocène en analysant l'ensemble des données disponibles (isotopes stables, excès en Deutérium, poussières) pour différents sites sur le plateau Antarctique, il n'apparaît aucune structure persistante significative pour aucun des proxies. Au Groenland, les seules fréquences significatives dans le deutérium sont l'empreinte spectrale de l'événement 8 200 ans. Le signal climatique déduit des calottes polaires pour la période Holocène est masqué par des processus tels que les effets locaux, la sensibilité des proxy,...
152

Modélisation en bosses pour l'analyse de motifs oscillatoires reproductibles dans l'activité de populations neuronales: applications à l'apprentissage olfactif chez l'animal et à la détection précoce de la maladie d'Alzheimer

Vialatte, François Benoît 16 December 2005 (has links) (PDF)
Le travail décrit dans ce mémoire a été effectué dans le cadre d'une collaboration entre le Laboratoire d'Électronique de l'École Supérieure de Physique et de Chimie Industrielles de la Ville de Paris (ESPCI), et l'équipe "Neurobiologie de la mémoire olfactive" de l'Institut des Sciences Cognitives de Lyon. L'étude des dynamiques neuronales associées aux processus cognitifs peut être abordée par l'analyse de l'activité électrique de populations neuronales enregistrée par des électrodes placées sur le scalp (électroencéphalogramme ou EEG); ou en profondeur (local field potential ou LFP) qui fournissent une meilleure résolution spatiale sur l'origine du signal. On détecte ainsi des motifs d'activité rythmiques divisés en bandes de fréquences (rythmes alpha, bêta, gamma...) et qui traduisent différents "états cérébraux" comme le niveau de vigilance et d'attention ou certains états pathologiques comme l'épilepsie. On ignore toutefois si ce type d'activité révèle également des aspects plus fins du traitement de l'information comme par exemple la réponse neuronale sélective ("code neuronal") à une stimulation sensorielle donnée. S'il en est ainsi, on devrait pouvoir mettre en évidence que la présentation d'un stimulus sensoriel donné évoque un pattern reproductible d'activité oscillatoire. C'est pourquoi dans un premier volet nous nous intéressons, dans ce travail, à l'analyse des représentations temps-fréquence des signaux LFP enregistrés chez le rat libre de se mouvoir en réponse à différents odorants. Dans un second volet, nous analysons des enregistrements EEG de courte durée obtenus chez des patients dont on soupçonne qu'ils développeront la maladie d'Alzheimer. Nous cherchons à détecter des patterns d'activité oscillatoires qui pourraient contribuer au diagnostic. Ces deux approches sont rendues possibles par une nouvelle méthode d'analyse des cartes temps-fréquence qui fait l'objet de cette thèse. La méthode que nous présentons ici, la "modélisation en bosses", fournit une représentation simple, parcimonieuse en nombre de paramètres, des cartes temps-fréquence obtenues par décomposition du signal en ondelettes. Cette modélisation permet l'extraction de caractéristiques temps-fréquence, à l'aide desquelles l'analyse statistique d'enregistrements nombreux, et la détection de motifs temps-fréquence reproductibles, peuvent être effectuées. La méthode est d'abord validée sur des signaux artificiels (simulation de signaux réels). Elle est ensuite appliquée en premier lieu à l'analyse de plusieurs centaines de réponses aux odeurs obtenues dans le bulbe olfactif du rat (signaux LFP). Nous montrons d'une part que chacun des 4 odorants évoquent des patterns d'activité oscillatoire reproductibles et que certains de ces patterns diffèrent entre eux de façon significative. Ces motifs spécifiques d'activité, principalement observés dans la bande beta (15-35 Hz), pourraient refléter le recrutement successif d'assemblées neuronales associées à la représentation du stimulus. Pour les signaux EEG, nous présentons les premiers résultats d'une étude effectuée en collaboration avec le laboratoire LABSP du Riken Brain Science Institute (Wako, Japon). Nous montrons que notre méthode permet une détection précoce de la maladie (18 à 24 mois avant le diagnostic de la pathologie) avec une précision largement améliorée par rapport aux prédictions effectuées par d'autres méthodes sur la même base de données. En conclusion, notre approche montre qu'il est possible d'extraire à partir de l'analyse des motifs complexes d'activités oscillatoires générées par de larges populations neuronales des corrélats du traitement de l'information sensorielle et la signature encore discrète d'états pathologiques.
153

Simulation globale de l'éclairage pour des séquences animées prenant en en compte la cohérence temporelle

Damez, Cyrille 10 December 2001 (has links) (PDF)
Les méthodes globales de simulation de l'éclairage permettent, à la différence des méthodes d'éclairage local, d'exprimer l'équilibre énergétique dans les échanges entre différents objets, et donc de simuler précisément les effets subtils d'éclairage dûs aux nombreuses inter-réflexions. Il est donc naturel de souhaiter les utiliser pour la synthèse réaliste de films d'animation. Plutôt que de résoudre une succession d'équations intégrales tri-dimensionelles, nous modélisons les échanges lumineux ayant lieu au cours de l'animation sous la forme d'une unique équation intégrale quadri-dimensionelle. Dans le cas ou l'intégralité des mouvements est connue à l'avance, nous proposons une extension de l'algorithme de radiosité hiérarchique mettant à profit la cohérence temporelle. La radiosité en chaque point et à chaque instant y est exprimée dans une base de fonctions hiérarchiques définies sur un maillage produit par un processus de raffinement. L'extension de ce maillage à un espace à quatre dimensions nous permet de calculer des échanges lumineux sur un intervalle de temps fini au lieu d'une date donnée. L'algorithme ainsi défini permet la simulation de l'éclairage global diffus dans une scène animée, dans un temps largement inférieur, avec une qualité équivalente. Nous avons développé pour cela de nouveaux oracles de raffinement ad hoc, que nous présentons ici. Afin de permettre le calcul de scènes géométriquement complexes, nous présentons une nouvelle politique de regroupement hiérarchique des objets adaptée au cas quadri-dimensionnel. Nous présentons également un algorithme permettant la réduction des discontinuités temporelles dues aux approximations effectuées lors de la résolution, basé sur l'emploi de bases de multi-ondelettes. Finalement, nous présentons un mécanisme d'ordonnancement des calculs et de sauvegarde temporaire sur une mémoire de masse permettant de réduire la consommation en mémoire vive de l'algorithme.
154

Dynamique non linéaire des systèmes mécaniques couplés: réduction de modèle et identification

Nguyen, Tien Minh 21 January 2007 (has links) (PDF)
Le travail présenté dans ce mémoire est une contribution au domaine de l'analyse et de l'identification du comportement dynamique des structures non linéaires. Le premier objectif est la mise au point et la comparaison de quatre techniques de calcul des Modes Normaux Non linéaires (MNNs) : l'approche de Shaw et Pierre, l'approche de Bellizzi et Bouc, l'équilibrage harmonique et la méthode de tir. La combinaison des trois dernières méthodes avec la méthode de continuation permet de détecter les points de bifurcation et de trouver les nouvelles branches de solutions. Le deuxième objectif est l'identification des paramètres caractérisant le comportement dynamique des systèmes linéaires et non linéaires à partir des réponses libres ou des réponses au bruit ambiant. Les outils présentés sur le traitement du signal réel modulé en amplitude et en fréquence par la transformation en ondelettes continue permettent d'atteindre cet objectif. Le dernier objectif est l'extension de la méthode de sous-structuration linéaire de Craig-Bampton au cas non linéaire. Lorsque l'hypothèse de couplage faible entre les sous-structures est faite, le modèle réduit de la structure globale est obtenu par assemblage de modèles réduits de sous-structures avec interfaces de couplage fixe. Ces modèles réduits sont calculés en utilisant l'approche des MNNs de Shaw et Pierre. La robustesse et l'efficacité des méthodes présentées sont étudiées au travers d'exemples numériques ainsi que de tests réels.
155

Combinaison multi-capteurs de données de couleur de l'eau : application en océanographie opérationnelle

Pottier, Claire 22 December 2006 (has links) (PDF)
Le phytoplancton joue un rôle important dans le cycle du carbone sur Terre, de par l'absorption du dioxyde de carbone au cours de la photosynthèse. Si les campagnes en mer offrent la possibilité d'acquérir des données à haute fréquence et à fine échelle spatio-temporelle, l'observation spatiale procure une description synoptique et sur de longues périodes de la chlorophylle-a, pigment principal du phytoplancton océanique. Chaque mission satellitaire qui mesure la couleur de l'eau est limitée en couverture océanique (traces du satellite, nuages, etc.). La couverture spatiale journalière peut augmenter considérablement en combinant les données issues de plusieurs satellites. L'objectif de cette thèse a été de concevoir, développer et tester des méthodes de combinaison de données couleur de l'eau, provenant des capteurs américains SeaWiFS et MODIS/Aqua, pour des applications en temps réel relevant de l'océanographie opérationnelle. Trois concepts ont été retenus : la moyenne pondérée par l'erreur capteur (conserve la netteté des structures mais n'utilise que les données existantes), l'analyse objective (améliore la couverture spatiale, mais lisse le champ en contrepartie), et une dernière approche innovante basée sur la transformée en ondelettes (conserve la netteté des structures et améliore la couverture du champ). L'opérationnalité de ces trois méthodes a été démontrée.<br />L'intérêt d'utiliser des données combinées a été montré à travers la mise en évidence des modes de variabilité dominants de la dynamique océanographique et biologique dans l'Océan Austral, en utilisant les données combinées SeaWiFS + MODIS/Aqua de la ceinture circumpolaire pour la période 2002-2006.
156

Développements récents sur l'estimation fonctionnelle par méthodes d'ondelettes

Chesneau, Christophe 03 April 2014 (has links) (PDF)
A ce jour, l'essentiel de mes travaux s'articule autour de l'estimation de fonctions inconnues émanant de phénomènes aléatoires. La richesse de ces phénomènes combinée avec l'amélioration constante des méthodes d'estimation nourrissent mon intérêt pour le sujet. J'ai toutefois choisi de me spécialiser dans les méthodes d'ondelettes. La principale raison est qu'elles bénéficient d'une grande faculté d'adaptation à la complexité du problème posé, tout en ayant des performances d'estimation remarquables. Cela est présenté dans la première partie de ce rapport. Les trois autres parties concernent trois de mes résultats les plus significatifs. En outre, ils sont applicables à une multitude de modèles statistiques, ouvrant ainsi un large champ d'applications, et améliorent certains aspects de résultats existants.
157

Calcul hautes performances pour les formulations intégrales en électromagnétisme basses fréquences. Intégration, compression matricielle par ondelettes et résolution sur architecture GPGPU

Rubeck, Christophe 18 December 2012 (has links) (PDF)
Les méthodes intégrales sont des méthodes particulièrement bien adaptées à la modélisation des systèmes électromagnétiques car contrairement aux méthodes par éléments finis elles ne nécessitent pas le maillage des matériaux inactifs tel que l'air. Ces modèles sont donc légers en terme du nombre de degrés de liberté. Cependant ceux sont des méthodes à interactions totales qui génèrent des matrices de systèmes d'équations pleines. Ces matrices sont longues à calculer en temps processeur et coûteuses à stocker dans la mémoire vive de l'ordinateur. Nous réduisons dans ces travaux les temps de calcul grâce au parallélisme, c'est-à-dire l'utilisation de plusieurs processeurs, notamment sur cartes graphiques (GPGPU). Nous réduisons également le coût du stockage mémoire via de la compression matricielle par ondelettes (il s'agit d'un algorithme proche de la compression d'images). C'est une compression par pertes, nous avons ainsi développé un critère pour contrôler l'erreur introduite par la compression. Les méthodes développées sont appliquées sur une formulation électrostatique de calcul de capacités, mais elles sont à priori également applicables à d'autres formulations.
158

Implémentation et applications d'algorithmes fondés sur la théorie de la fonctionnelle de la densité dépendante du temps dans les logiciels à la base des fonctions gaussiennes et ondelettes

Natarajan, Bhaarathi 19 January 2012 (has links) (PDF)
L'interaction entre la matière et le rayonnement est un domaine bien établi de la physique. Pour un physico-chimiste, cette interaction peut être utilisée comme une sonde (spectroscopie) ou pour provoquer des réactions chimiques (photo-chimie). Les mécanismes des réactions photochimiques sont difficiles à étudier expérimentalement et même les études les plus sophistiquées de spectroscopies femtosecondes peuvent bénéficier énormément des simulations théoriques.Les résultats spectroscopiques d'ailleurs ont souvent besoin des calculs théoriques pour l'analyse de leurs spectres. Les méthodes théoriques pour décrire les processus photochimiques ont été principalement développées en utilisant le concept de la fonction d'onde à N corps et ont eu des succès remarquables. Cependant de telles approches sont généralement limitées à des petites ou moyennes molécules. Heureusement la théorie de la fonctionnelle de la densité dépendant du temps (TD-DFT) a émergé comme une méthode simple de calcul pouvant être appliquée à des molécules plus grandes, avec une précision qui est souvent, mais pas toujours, semblable à la précision provenant des méthodes basés sur la fonction d'onde à N électrons. Une partie de cette thèse consiste à surmonter les difficultés des approximations utilisées de nos jours en TD-DFT. En particulier, nous avons examiné la qualité des intersections coniques quand l'approche du retournement de spin non collinéaire de Ziegler-Wang est utilisée et nous avons montré que l'approche du retournement de spin, parfois ,améliore dans des cas particuliers, mais que c'est n'est pas une solution générale pour mieux décrire les intersections coniques dans les simulations photochimiques basées sur la TD-DFT. La plupart des parties de cette thèse traite d'améliorations algorithmiques, soit pour améliorer l'analyse des résultats de la TD-DFT, soit pour étendre les calculs de TD-DFT à de grandes molécules. L'implémentation de l'analyse automatique des symétries des orbitales moléculaires dans deMon2k est une contribution pour améliorer l'analyse des résultats de la TD-DFT. Cela a aussi servi comme une introduction au projet de programmation majeur. La contribution méthodologique principale dans cette thèse est l'implémentation des équations de Casida dans le code BigDFT fondé sur le formalisme des ondelettes. Cette implémentation a aussi permis une analyse détaillée des arguments positifs et négatifs de l'utilisation de la TD-DFT fondée sur les ondelettes. On montre qu'il est plus facile d'obtenir des orbitales moléculaires précises qu'avec deMon2k. Par contre, la contribution des orbitales inoccupées est plus problématiques qu'avec un code de gaussienne comme deMon2k. Finalement, les équations de base des gradients analytiques des états excités sont dérivées pour la TD-DFT. La thèse se termine avec quelques perspectives de travaux futurs.
159

Représentation numérique et mathématique des structures météorologiques cohérentes d'échelle synoptique

Plu, Matthieu 24 January 2008 (has links) (PDF)
Les phénomènes météorologiques d'échelle synoptique peuvent s'expliquer par les interactions non linéaires entre structures d'amplitude finie, et leur environnement. Ce cadre d'étude, qui ne repose pas sur les hypothèses difficilement justifiables des théories d'instabilité, nécessite de pouvoir représenter de façon objective ces structures cohérentes, nommées ainsi par analogie avec les écoulements turbulents.<br />L'objectif principal de cette thèse est de bâtir et d'évaluer un algorithme d'extraction des structures cohérentes d'échelle synoptique. Elles sont recherchées dans le seul champ de tourbillon potentiel, qui est inversible dans l'atmosphère sèche. L'attribution des autres champs dynamiques à la structure est ainsi rendue possible après inversion. L'extraction repose sur la projection des champs bidimensionnels sur un ensemble de bases d'ondelettes orthogonales. Une base optimale est associée à chaque structure ; pour éviter la redondance entre les structures, une technique d'orthogonalisation a été mise au point. La comparaison de l'extraction avec une méthode non objective est possible grâce à un nouveau critère de cohérence temporelle, qui repose sur l'indépendance de l'évolution de l'environnement.<br />L'extraction est appliquée à plusieurs phénomènes d'échelle synoptique : un précurseur d'altitude haute-fréquence, un rapide de courant-jet et des champs d'altitude associés à des épisodes précipitants en Méditerranée. Ces études montrent la pertinence dynamique des structures extraites et dégagent des perspectives d'utilisation de l'algorithme. On aborde aussi sa possible application à la mise en place d'une prévision d'ensemble à courte échéance des tempêtes.
160

Tomographie optique de fluorescence dans les milieux diffusants : apport de l'information temporelle / Fluorescence diffuse optical tomography : benefits of using the time-resolved modality

Ducros, Nicolas 06 October 2009 (has links)
La tomographie optique diffuse de fluorescence permet la reconstruction tridimensionnelle de fluorophores présents dans un tissu biologique. La modalité la plus simple de cette technique repose sur une illumination continue du milieu et s'intéresse aux mesures d'atténuation du faisceau incident en différentes positions. En raison de la forte diffusion des tissus, la modalité continue souffre d'une faible résolution en profondeur.On considère aujourd'hui que la modalité résolue en temps, qui fournit pour chaque photon détecté son temps de vol, permettrait l'étude de tissus plus épais, ouvrant ainsi la porte à des applications cliniques. L'objet de cette thèse est de chercher comment tirer profit de l'information temporelle et de quantifier son apport par rapport à la modalité continue.La tomographie optique diffuse de fluorescence est un problème inverse mal conditionné. Dans un contexte où tout écart au modèle doit être limité, nous nous intéressons tout d'abord au modèle direct et montrons que la densité de photons est un modèle satisfaisant de la quantité expérimentalement mesurée. Nous passons ensuite au crible la méthode de reconstruction fondée sur l'exploitation des moments temporels des mesures. Étudiant théoriquement les propriétés des moments, nous montrons que cette approche nécessite, pour s'avérer intéressante, la détection d'un nombre élevé de photons. Nous introduisons enfin une nouvelle approche permettant d'exploiter l'information temporelle pour un nombre de photons plus limité. Cette approche, reposant sur une transformation en ondelettes des mesures, offre une qualité de reconstruction accrue par rapport à celle offerte par l'approche des moments. / Fluorescence diffuse optical tomography enables the three-dimensional reconstruction of fluorescence markers injected within a biological tissue, with light in the near infrared range. The simple continuous modality uses steady excitation light and operates from the measurements at different positions of the attenuation of the incident beam. This technique is low-cost, non-ionizing, and easy to handle, but subject to low resolution for thick tissues due to diffusion. Hopefully, the time-resolved modality, which provides the time of flight of any detected photon, could overcome this limitation and pave the way to clinical applications. This thesis aims at determining the best way to exploit the time resolved information and at quantifying the advantages of this modality over the standard continuous wave one.Model deviations must be carefully limited when ill-posed problems as fluorescence diffuse optical tomography are considered. As a result, we have first addressed the modelling part of the problem. We have shown that the photons density models to good approximation the measurable quantity that is the quantity measured by an actual acquisition set-up. Then, the moment-based reconstruction scheme has been thoroughly evaluated by means of a theoretical analysis of the moments’ properties. It was found that the moment-based approach requires high photon counts to be profitable compared to the continuous wave modality. Last, a novel wavelet-based approach, which enables an improved reconstruction quality, has been introduced. This approach has shown good ability to exploit the temporal information at lower photon counts.

Page generated in 0.0542 seconds