• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 361
  • 149
  • 78
  • 28
  • 10
  • 10
  • 9
  • 8
  • 7
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • Tagged with
  • 854
  • 120
  • 112
  • 110
  • 106
  • 106
  • 95
  • 74
  • 63
  • 60
  • 59
  • 58
  • 58
  • 57
  • 57
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
551

Contribution à l'étude des partages, probabilités et statistiques sur le simplexe unité

Maurin, Michel 25 October 1983 (has links) (PDF)
.
552

Etude du passage micro-macro pour le transport par diffusion en milieu poreux. Application aux expériences de RMN-GCP

Rodts, Stéphane 25 October 2001 (has links) (PDF)
Ce travail a un double but : <br />1) Observer et identifier les mécanismes physiques via lesquels, dans les matériaux poreux homogènes, les lois microscopiques du transport par diffusion induisent généralement des lois de transport effectives macroscopiques très simples, quelque soit la complexité du réseaux poreux sous jacent.<br />2) Contribuer à développer le cadre d'interprétation des expériences RMN de Gradient de Champ Pulsé (GCP) pour la mesure de l'autodiffusion dans les fluides confinés dans les systèmes poreux.<br />Nous étudions le cas académique de la diffusion Fickienne sans adsorption. Nous observons le transport à échelle de longueur fixée, en suivant la cinétique avec laquelle "s'affaisse" par diffusion l'amplitude G(q,t) de "profils de concentration sinusoïdaux" de vecteur d'onde q variable. Vis à vis de la RMN cette approche revient à étudier le propagateur de diffusion G(q,t) - grandeur mesurée par l'expérience - de manière non traditionnelle, c'est à dire, à q fixé en fonction du temps t. A q donné, 3 régimes de temps sont mis en évidence : un régime de temps court de diffusion non confinée, un régime de temps intermédiaire renseignant sur la diffusion à l'échelle de longueur 2pi/q, et un régime de temps long sensible à la "dimensionnalité" de l'espace poral.<br />Nous caractérisons la cinétique d'affaissement aux temps intermédiaires par un coefficient e diffusion D(q). Son étude théorique et expérimentale en fonction de q dans des systèmes périodiques et/ou désordonnés simples fait apparaître clairement trois phénomènes lors du passage micro-macro : une première interaction avec l'interface, une différentiation brutale du rôle des différents pores, puis une diffusion anormale due à cette différentialité, susceptible de perdurer aux échelles macroscopiques, et suivie par un retour au régime "Fickien".<br />Une expérience macroscopique de traceur est enfin proposée et développée pour observer ces phénomènes de diffusion anormale dans quelques systèmes modèles.
553

Etude des atomes d'hélium et de béryllium en champ laser intense et bref

Laulan, Stéphane 17 September 2004 (has links) (PDF)
Nous présentons une étude théorique de l'interaction entre un atome à deux électrons actifs et un champ laser de fort éclairement (10e14 à 10e15 W/cm²) et de durée d'impulsion ultra-brève (quelques 10e-15 à quelques 10e-18 s). Nous décrivons dans un premier temps les techniques expérimentales actuelles capables de produire un rayonnement cohérent de haute puissance dans le domaine spectral UV-XUV, et de durée d'impulsion de l'ordre de la femtoseconde ou subfemtoseconde. Un modèle semi-classique d'une impulsion laser avec de telles caractéristiques est alors défini. Puis, nous développons une méthode numérique basée sur l'utilisation des fonctions B-splines pour décrire la structure électronique d'un atome à deux électrons actifs. Un traitement non perturbatif de type spectral est alors proposé pour représenter la propagation dans le temps de la fonction d'onde du système irradié, où le point important est de définir le plus précisément possible la région du double continuum atomique. Nous exposons finalement des résultats sur la double ionisation des atomes d'hélium et de béryllium en présence d'un champ laser intense et bref, issus de notre approche numérique. Ils concernent en particulier des calculs de sections efficaces totales d'ionisation, et de distributions énergétiques entre les électrons éjectés dans le double continuum après absorption d'un photon et de deux photons.
554

Analyses factorielles des distributions marginales de processus

Boumaza, Rachid 04 January 1999 (has links) (PDF)
On définit la mesure d'affinité de deux densités de probabilité de p-vecteurs aléatoires par le produit scalaire de ces deux densités dans l'espace des fonctions de carré intégrable. On la calcule pour différents types de densités. On présente les propriétés asymptotiques de cette mesure d'affinité dans le cas de densités gaussiennes ; on montre en particulier la normalité asymptotique de cette mesure lorsque les paramètres de ces densités sont estimés par le maximum de vraisemblance. On utilise cette mesure d'affinité pour définir l'analyse en composantes principales de T densités de probabilité (ou des fonctions caractéristiques associées) avec l'objectif d'apprécier l'évolution de ces densités en les visualisant dans des espaces de dimension réduite. On en montre les liens avec la méthode Statis Dual (sur matrices de variance) et on en propose une estimation convergente. On montre les représentations obtenues sur des données de cardiologie et sur des données de processus gaussiens en en faisant varier les paramètres. Aux densités précédentes indicées par t (t=1,...,T) on ajoute une variable qualitative Y définie sur l'ensemble des indices. Cette variable engendrant une partition des densités en Q catégories, on définit l'analyse discriminante de ces densités et on propose quatre règles d'affectation d'une nouvelle densité gaussienne à l'une des Q catégories. Deux règles sont de type probabiliste (vraisemblance maximale) et s'appuient sur le caractère asymptotiquement gaussien de la mesure d'affinité ; deux règles sont de type géométrique (distance minimale) et s'appuient sur la distance induite par la mesure d'affinité. On applique cette méthode à des données archéologiques (mesures de pierres de châteaux d'Alsace), l'objectif étant de dater ces châteaux.
555

Marchés financiers avec une infinité d'actifs, couverture quadratique et délits d'initiés

Campi, Luciano 18 December 2003 (has links) (PDF)
Cette thèse consiste en une série d'applications du calcul stochastique aux mathématiques financières. Elle est composée de quatre chapitres. Dans le premier on étudie le rapport entre la complétude du marché et l'extrémalité des mesures martingales equivalentes dans le cas d'une infinité d'actifs. Dans le deuxième on trouve des conditions équivalentes à l'existence et unicité d'une mesure martingale equivalente sous la quelle le processus des prix suit des lois n-dimensionnelles données à n fixe. Dans le troisième on étend à un marché admettant une infinité dénombrable d'actifs une charactérisation de la stratégie de couverture optimale (pour le critère moyenne-variance) basé sur une technique de changement de numéraire et extension artificielle. Enfin, dans le quatrième on s'occupe du problème de couverture d'un actif contingent dans un marché avec information asymetrique.
556

Contributions à l'analyse des lois d'échelles et de la qualité de service dans les réseaux : aspects expérimentaux et théoriques

Loiseau, Patrick 11 December 2009 (has links) (PDF)
Dans le contexte actuel d'expansion rapide de l'Internet, la compréhension profonde des propriétés statistiques du trafic réseau est essentielle pour que les fournisseurs d'accès puisse offrir la meilleure "Qualité de Service" possible aux utilisateurs. Une avancée majeure dans cette direction a été la découverte en 1993 de l'auto-similarité du trafic, suivie en 1997 par le modèle ON/OFF qui interprète cette propriété par les tailles de fichiers à queue lourde. Bien qu'ils soient d'un grand intérêt, de tels modèles mathématiques s'appuient nécessairement sur des hypothèses simplificatrices qui peuvent en limiter l'applicabilité en situation réelle, en particulier du fait de la complexité du protocole TCP. Dans cette thèse, nous utilisons une approche hybride, basée sur la combinaison de traces de trafic réelles, d'expériences contrôlées et de modèles théoriques, pour aborder certaines questions ouvertes sur le trafic réseau et la Qualité de Service. Nos expériences utilisent une plate-forme contrôlable à grande échelle et un système performant de capture du trafic. Nous abordons dans un premier temps des questions liées au trafic agrégé : nous étendons les modèles existants de longue mémoire et nous proposons un estimateur du paramètre de queue lourde sous échantillonnage. Nous étudions ensuite empiriquement l'impact de la longue mémoire et des queues lourdes sur la Qualité de Service. Nous nous tournons enfin vers le trafic d'une seule source TCP et montrons, à l'aide d'un principe de grandes déviations, qu'il peut être finement caractérisé par une structure multifractale reliée au mécanisme de contrôle AIMD, et naturellement reproduite par des modèles markoviens.
557

Impact of residential wood combustion on urban air quality

Krecl, Patricia January 2008 (has links)
<p>Wood combustion is mainly used in cold regions as a primary or supplemental space heating source in residential areas. In several industrialized countries, there is a renewed interest in residential wood combustion (RWC) as an alternative to fossil fuel and nuclear power consumption. The main objective of this thesis was to investigate the impact of RWC on the air quality in urban areas. To this end, a field campaign was conducted in Northern Sweden during wintertime to characterize atmospheric aerosol particles and polycyclic aromatic hydrocarbons (PAH) and to determine their source apportionment.</p><p>A large day-to-day and hour-to-hour variability in aerosol concentrations was observed during the intensive field campaign. On average, total carbon contributed a substantial fraction of PM10 mass concentrations (46%) and aerosol particles were mostly in the fine fraction (PM1 accounted for 76% of PM10). Evening aerosol concentrations were significantly higher on weekends than on weekdays which could be associated to the use of wood burning for recreational purposes or higher space heat demand when inhabitants spend longer time at home. It has been shown that continuous aerosol particle number size distribution measurements successfully provided source apportionment of atmospheric aerosol with high temporal resolution. The first compound-specific radiocarbon analysis (CSRA) of atmospheric PAH demonstrated its potential to provide quantitative information on the RWC contribution to individual PAH. RWC accounted for a large fraction of particle number concentrations in the size range 25-606 nm (44-57%), PM10 (36-82%), PM1 (31-83%), light-absorbing carbon (40-76%) and individual PAH (71-87%) mass concentrations.</p><p>These studies have demonstrated that the impact of RWC on air quality in an urban location can be very important and largely exceed the contribution of vehicle emissions during winter, particularly under very stable atmospheric conditions.</p>
558

Etude de la structure du nucléon par des calculs de QCD sur réseau avec des fermions de masse twistée

Harraud, Pierre-Antoine 03 November 2010 (has links) (PDF)
La compréhension de la structure interne du nucléon à partir de la ChromoDynamique Quantique est un enjeu majeur de la physique hadronique. Seule la QCD sur réseau permet d'évaluer numériquement les observables à partir des principes ab-initio. Le sujet de cette thèse est l'étude des facteurs de forme du nucléon et le premier moment des fonctions de distributions de partons en utilisant une action discrétisée avec des fermions de masse twistée. Cette dernière a l'avantage de supprimer les effets de discrétisation au premier ordre en la maille du réseau. D'autre part, l'ensemble des simulations permet un contrôle accru des erreurs systématiques. Après avoir détaillé les techniques de calcul utilisées, je présenterai les résultats obtenus pour un large éventail de paramètres, mailles de réseau variant entre 0.056 fm et 0.089 fm, volumes compris entre 2.1 et 2.7 fm et masses de pions dans le domaine 260-470 MeV. La constante de renormalisation vectorielle a ainsi été obtenue dans le secteur du nucléon avec une grande précision. Pour le rayon de charge électrique, les effets de volume fini mis en évidence fournissent une clef pour expliquer sa dépendance chirale vers le point physique. Les résultats pour le moment magnétique et axial, les fractions d'impulsion et d'hélicité portées par les quarks, ne présentent pas d'effets de discrétisation ni de volume fini significatifs. Aux masses de pions considérées, leurs valeurs montrent une déviation par rapport aux valeurs expérimentales, leur comportement chiral n'exhibant pas la courbure prédite par les perturbations chirales qui permettrait de résoudre ce désaccord apparent.
559

Quark Distributions and Charged Higgs Boson Production : Studies of Proton Structure and New Physics

Alwall, Johan January 2005 (has links)
<p>The Standard Model describes all elementary particles known today, but at larger energies it will have to be complemented with new particles and interactions. To be able to distinguish new physics at proton colliders such as LHC at CERN, it is essential to have an appropriate description of the colliding protons and their interactions. The study of the proton is important also in itself, to get a better understanding of the non-perturbative aspects of the strong interaction.</p><p>In paper I-IV of this thesis, a model for the non-perturbative dynamics of quarks and gluons is developed, based on quantum fluctuations in hadrons. The parton distributions of the proton are given by momentum fluctuations, with sea quark distributions generated by fluctuations into baryon-meson pairs. This model can reproduce proton structure function data, as well as measured asymmetries between up and down valence quark distributions and between the anti-up and anti-down sea. It provides an intrinsic charm quark component as indicated by data. It also predicts an asymmetry in the strange sea of the proton, which can explain the NuTeV anomaly first attributed to new physics beyond the Standard Model.</p><p>Charged Higgs bosons are predicted by several theories for new physics, including Supersymmetry. At proton colliders, the predicted dominant production mechanism is in association with top and bottom quarks. In paper V-VII, different contributions to this production are studied, and an algorithm is developed for combining the two dominant processes gb -> tH<sup>+/-</sup> and gg -> tbH<sup>+/-</sup>. The algorithm gives a smooth transition from small to large transverse momenta of the b-quark, which is important when the b-quark is observed. It also gives arguments for the choice of factorisation scale in the process.</p>
560

Spatio-temporal processing of surface electromyographic signals : information on neuromuscular function and control

Grönlund, Christer January 2006 (has links)
During muscle contraction, electrical signals are generated by the muscle cells. The analysis of those signals is called electromyography (EMG). The EMG signal is mainly determined by physiological factors including so called central factors (central nervous system origin) and peripheral factors (muscle tissue origin). In addition, during the acquisition of EMG signals, technical factors are introduced (measurement equipment origin). The aim of this dissertation was to develop and evaluate methods to estimate physiological properties of the muscles using multichannel surface EMG (MCsEMG) signals. In order to obtain accurate physiological estimates, a method for automatic signal quality estimation was developed. The method’s performance was evaluated using visually classified signals, and the results demonstrated high classification accuracy. A method for estimation of the muscle fibre conduction velocity (MFCV) and the muscle fibre orientation (MFO) was developed. The method was evaluated with synthetic signals and demonstrated high estimation precision at low contraction levels. In order to discriminate between the estimates of MFCV and MFO belonging to single or populations of motor units (MUs), density regions of so called spatial distributions were examined. This method was applied in a study of the trapezius muscle and demonstrated spatial separation of MFCV (as well as MFO) even at high contraction levels. In addition, a method for quantification of MU synchronisation was developed. The performance on synthetic sEMG signals showed high sensitivity on MU synchronisation and robustness to changes in MFCV. The method was applied in a study of the biceps brachii muscle and the relation to force tremor during fatigue. The results showed that MU synchronisation accounted for about 40 % of the force tremor. In conclusion, new sEMG methods were developed to study muscle function and motor control in terms of muscle architecture, muscle fibre characteristics, and processes within the central nervous system.

Page generated in 0.1068 seconds