• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 379
  • 120
  • 102
  • 26
  • 21
  • 16
  • 14
  • 10
  • 9
  • 6
  • 4
  • 3
  • 3
  • 3
  • 3
  • Tagged with
  • 848
  • 235
  • 78
  • 73
  • 71
  • 70
  • 67
  • 67
  • 64
  • 62
  • 61
  • 61
  • 54
  • 53
  • 52
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Valeurs centrales et valeurs au bord de la bande critique de fonctions L automorphes / Central Values and Values At the Edge of the Critical Strip of Automorphic L-functions

Xiao, Xuanxuan 06 May 2015 (has links)
Cette thèse, constitué en trois parties, est consacrée à l'étudie des valeurs spéciales de fonctions L automorphes. La première partie contient un survol rapide de la théorie des formes modulaires et des fonctions L de puissance symétrique associées qui est nécessaire dans la suite. Dans la seconde partie, nous nous concentrons sur les valeurs centrales, par l'étude des moments intégraux dans petit intervalle, pour les fonctions L automorphes. On prouve la conjecture de Conrey et al. et donne l'ordre exact pour les moments sous l'hypothèse de Riemann généralisée. La troisième partie présente des travaux sur les valeurs en s=1 de la fonction L de puissance symétrique en l'aspect de niveau-poids. On généralise et/ou améliore les résultats sur l'encadrement de la fonction L de puissance symétrique, la conjecture de Montgomery-Vaughan et également la fonction de répartition. Une application des valeurs extrêmes sur la distribution des coefficients des formes primitives concernant la conjecture de Sato-Tate est donnée / Special values of automorphic L-functions are considered in this work in three parts. In the first part, elementary information about automorphic forms and associated symmetric power L-functions, which will be very useful in the following parts, is introduced. In the second part, we study the central values, in the form of higher moment in short interval, of automorphic L-functions and give a proof for the conjecture of Conrey et al. to get the sharp bound for the moment under Generalized Riemann Hypothesis. In the last part, values of automorphic L-functions at s=1 are considered in level-weight aspect. We generalize and/or improve related early results about the bounds of values at s=1, the Montgomery-Vaughan's conjecture and distribution functions. As an application of our results on extreme values, the distribution of coefficients of primitive forms concerning the Sato-Tate conjecture is studied
202

La structure du capital et son impact sur la profitabilité et sur la demande de travail : analyses théoriques et empiriques sur données de panel françaises / Capital structure and its impact on profitability and on labour demand : theoretical and empirical analysis on french panel data

Kebewar, Mazen 26 March 2012 (has links)
La présente thèse contribue à la littérature sur trois principaux axes de recherche relatifs à la structure du capital: les déterminants de la structure du capital, la profitabilité et la demande de travail. (i) Le fondement théorique des déterminants de la structure du capital montre qu’il existe trois modèles qui peuvent expliquer la structure du capital: la théorie de ratio optimal d’endettement, la théorie hiérarchique de financement et récemment la théorie de market timing. De plus, l’évaluation empirique montre un effet positif des coûts d’ajustement et de la garantie. Par contre, l’opportunité de croissance, l’impôt non lié à la dette et la rentabilité sont corrélés de façon négative avec l’endettement. (ii) L’impact de la structure du capital sur la profitabilité peut être expliqué par trois théories essentielles: la théorie du signal, l’influence de la fiscalité et la théorie de l’agence. L’analyse empirique a permis de distinguer trois groupes différents de secteurs: pour le premier groupe, la structure du capital n’a aucune incidence sur la profitabilité. Le deuxième, c’est le groupe où l’endettement affecte négativement la profitabilité de manière linéaire. Le dernier groupe se caractérise par la présence d’un effet négatif de façon linéaire et non linéaire (iii) Théoriquement, un impact négatif de la structure du capital sur la demande de travail est prévu. L’application empirique montre une hétérogénéité des comportements entre les secteurs en ce qui concerne l’effet de l’endettement sur la demande de travail, donc, il existe aussi trois groupes différents de secteurs (pas d’effet, effet négatif linéaire et effet négatif linéaire et non linéaire). De plus, la magnitude de l’effet de l’endettement sur la demande de travail et sur la profitabilité dépend, non seulement du secteur, mais aussi de la taille d’entreprise. / This thesis contributes to the literature in three main areas of research about capital structure: the determinants of capital structure, the profitability and the labour demand. (i) The theoretical basis of the determinants of capital structure shows that there are three models that explains the capital structure: Trade-Off theory, Pecking Order theory and Market Timing theory. Further, the empirical evaluation shows a positive effect of the adjustment costs and the tangibility. On the other hand, growth opportunity, non-debt tax shield and profitability are negatively correlated with debt. (ii) The impact of capital structure on profitability can be explained by three essential theories: signal theory, tax theory and the agency costs theory. The empirical analysis allowed to distinguish three different groups of sectors: for the first group, the capital structure has no impact on profitability. The second, it is the group where the debt affects negatively the profitability in a linear way. The last group is characterized by the presence of a negative effect in a linear and nonlinear way. (iii) Theoretically, a negative impact of the capital structure on labour demand is expected. The empirical application shows heterogeneity of behavior between sectors regarding the impact of debt on the demand for labor; therefore, there are three different groups of sectors (i.e. no effect, negative linear effect, and linear and non linear negative effect). Furthermore, the magnitude of the effect of debt on the labour demand and on the profitability depends not only of the sector, but also of the size of company.
203

Development and Validation of a Method of Moments approach for modeling planar antenna structures

Kulkarni, Shashank D 20 April 2007 (has links)
In this dissertation, a Method of Moments (MoM) Volume Integral Equation (VIE)-based modeling approach suitable for a patch or slot antenna on a thin finite dielectric substrate is developed and validated. Two new key features of this method are the use of proper dielectric basis functions and proper VIE conditioning, close to the metal surface, where the surface boundary condition of the zero tangential-component must be extended into adjacent tetrahedra. The extended boundary condition is the exact result for the piecewise-constant dielectric basis functions. The latter operation allows one to achieve a good accuracy with one layer of tetrahedra for a thin dielectric substrate and thereby greatly reduces computational cost. The use of low-order basis functions also implies the use of low-order integration schemes and faster filling of the impedance matrix. For some common patch/slot antennas, the VIE-based modeling approach is found to give an error of about 1% or less in the resonant frequency for one-layer tetrahedral meshes with a relatively small number of unknowns. This error is obtained by comparison with fine finite- element method (FEM) simulations, or with measurements, or with the analytical mode matching approach. Hence it is competitive with both the method of moments surface integral equation approach and with the FEM approach for the printed antennas on thin dielectric substrates. Along with the MoM development, the dissertation also presents the models and design procedures for a number of practical antenna configurations. They in particular include: i. a compact linearly polarized broadband planar inverted-F antenna (PIFA); ii. a circularly polarized turnstile bowtie antenna. Both the antennas are designed to operate in the low UHF band and used for indoor positioning/indoor geolocation.
204

Processus gamma étendus en vue des applications à la fiabilité / Extended gamma processes in view of application to reliability

Al Masry, Zeina 21 September 2016 (has links)
La thèse s’intéresse à l’étude du fonctionnement d’un système industriel. Il s’agit de proposer et de développer un nouveau modèle pour modéliser la dégradation accumulative d’un système. Le processus gamma standard est fréquemment utilisé pour étudier l’évolution de la détérioration d’un système. Toutefois, ce processus peut s’avérer inadapté pour décrire le phénomène de dégradation car le rapport variance sur moyenne est constant dans le temps, ce qui est relativement restrictif en pratique. Afin de surmonter cette restriction, nous proposons d’utiliser un processus gamma étendu introduit par Cinlar (1980), qui ne souffre plus de cette restriction. Mais ce dernier présente quelques difficultés techniques. A titre d’exemple, la loi d’un processus gamma étendu n’est pas connue sous une forme explicite. Ces difficultés techniques ont conduit Guida et al. (2012) à utiliser une version discrète d’un processus gamma étendu. Nous travaillons ici avec la version originale d’un processus gamma étendu en temps continu. Le but de ce mémoire est de développer des méthodes numériques permettant de quantifier les quantités fiabilistes associées et de développer des méthodes statistiques d’estimation des paramètres du modèle. Aussi, une autre partie de ce travail consiste à proposer une politique de maintenance dans le contexte d’un processus gamma étendu. / This thesis is dedicated to study the functioning of an industrial system. It is about proposing and developing a new model for modelling the accumulative degradation of a system. The standard gamma process is widely used to model the evolution of the system degradation. A notable restriction of a standard gamma process is that its variance-to-mean ratio is constant over time. This may be restrictive within an applicative context. To overcome this drawback, we propose to use an extended gamma process, which was introduced by Cinlar (1980). However, there is a cost and the use of an extended gamma process presents some technical difficulties. For example, there is no explicit formula for the probability distribution of an extended gamma process. These technical difficulties have lead Guida et al. (2012) to use a discrete version of an extended gamma process. We here propose to deal with the original continuous time version. The aim of this work is to develop numerical methods in order to compute the related reliability function and to develop statistical methods to estimate the parameters of the model. Also, another part of this work consists of proposing a maintenance policy within the context of an extended gamma process.
205

Étude dynamique des modes collectifs dans les gaz de fermions froids

Lepers, Thomas 25 June 2010 (has links)
Grace aux progrès énormes des techniques de refroidissement, des expériences actuelles avec des atomes fermioniques piégés atteignent des températures extrêmement basses de l'ordre du nanoKelvin. Le but principal de ces expériences est l'étude de la transition nommée "BEC-BCS crossover". Pour cela, on change le champ magnétique autour d'une résonance de Feschbach, ce qui implique que la longueur de diffusion change des valeurs répulsives (a positif), à travers la limite unitaire (a infini) aux valeurs attractives (a négatif). Du côté BEC, où le système forme un condensat de Bose-Einstein de molécules fortement liées, aussi bien que du côté BCS, où les atomes forment des paires de Cooper qui ont une grande extension par rapport à la distance moyenne entre les atomes, on s'attend à ce que le système devienne superfluide, à condition que la température soit inférieure à une certaine température critique. Afin de trouver des signes sans équivoque de la superfluidité, il est nécessaire de regarder des observables dynamiques comme l'expansion du nuage atomique lorsque le piège est éteint ou des oscillations collectives du nuage. Le travail effectué au cours de cette thèse est une étude de la dynamique des modes collectifs dans les gaz de fermions froids. Nous avons développé un modèle basé sur l'évaluation de la matrice T. L'utilisation de l'équation de transport de Boltzmann pour les particules permet ensuite une étude semi-numérique des modes collectifs dans tous les régimes d'interaction. Cette étude a permis de mettre en évidence pour la première fois que la fréquence du mode radial quadrupolaire est supérieure à deux fois la fréquence du piège, comme cela est vérifié expérimentalement et contrairement aux premières théories n'incluant pas les effets de champ moyen. Les résultats obtenus ont aussi mis en évidence la nécessité d'une résolution numérique complète de l'équation de Boltzmann et de l'amélioration des techniques de détermination des observables physiques du gaz. Cette résolution numérique de l'équation de Boltzmann a montré que la détermination du temps de relaxation par la méthode des moments est erronée de 30%, ce qui influe fortement sur la détermination de la fréquence et de l'amortissement du mode collectif. Enfin, l'amélioration de la méthode des moments, considérant l'ordre supérieur, permet d'améliorer sensiblement l'accord avec le résultat numérique. Une telle investigation n'avait jamais été réalisée et montre la nécessité de considérer les moments d'ordre supérieurs pour l'étude des modes collectifs par l'équation de Boltzmann d'un gaz de fermions dans la phase normale / Due to the improvement of cooling technics, recent experiments on ultracold Fermi gases now reach temperatures in the range of the nanokelvin. The main goal of these experiments is to study the so called BEC-BCS crossover. By tuning the external magnetic field around a Feschbach resonance, the scattering lengh runs from the repulsive side (a>0) to the attractive side (a<0) through the unitarity limit (a infinite). In the BEC side, where the system can form a Bose Einstein condensate of strongly bounded molecules and also in the BCS side where the atoms can form Cooper pairs, the system can become superfluid if the temperature is below the critical temperature. In order to know if the system is superfluid, one has to look at dynamical observables such the collective oscillations of the cloud. The work of this thesis deals with the dynamics of collective modes of ultracold Fermi gases. We have developped a model based on the T-matrix evaluation. We use the Boltzmann transport equation to study the collective modes in all the interaction regimes. This work shows for the first time that the frequency of the radial quadrupole mode can be more than twice the trap frequency, as it has been observed by experiments. The result comes from the incorporation of medium effects. These first results have also shown the necessity to solve numerically the Boltzmann equation. The numerical resolution shows that the determination of the relaxation time with the methods of moments was wrong by a factor 30%. Consequently, the determination of the frequency and the damping of the collective mode by this analytical method is also wrong. Thus, the improvement of this method, by considering the higher order, provides a better agreement with the numerical results. Such a calculation has never been done and shows the necessity to consider the higher order moments in the description of the collective mode of an ultracold Fermi gas in the normal with the Boltzmann equation
206

Maintenir la technologie aérosol et son industrie : une enquête sur les collectifs industriels (1958-2017) / Maintaining aerosol technology and its industry : an inquiry into the industrial collectives (1958-2017)

Baudrin, Mathieu 05 December 2018 (has links)
L’aérosol est une technologie omniprésente dans notre quotidien (mousse à raser, laque capillaire, insecticide, chantilly…), sans cesse critiquée et concurrencée par de multiples alternatives, elle comporte dans son script même différents risques à contenir. Cette thèse part de ce constat pour poser une question concise : comment la technologie aérosol et l’industrie qui la produit parviennent-elles à se maintenir depuis les années 1950 ? Pour répondre à cette question la thèse développe une analyse diachronique du développement de l’aérosol et de son industrie en mobilisant une instrumentation méthodologique adaptée. L’enquête part du principe qu’il n’existe pas « une industrie » mais des industries situées en fonction des lieux et des temporalités qui sont le fruit d’un travail menant à des recompositions successives des collectifs industriels. Pour suivre les recompositions conjointes de la technologie aérosol et de son appareil productif, l’enquête ne suit pas un objet technique spécifique mais mobilise la notion de principe technologique permettant ainsi à l’analyse d’articuler plusieurs moments critiques du développement de la technologie aérosol. Chaque moment critique constitue ainsi une forme d’épreuve spécifique au cours de laquelle l’industrie adopte une modalité réflexive adaptée. Outre l’apport méthodologique permettant d’articuler des questionnements en Sciences and Technology Studies, en sciences politiques, en la sociologie des risques, en sociologie des marchés et en histoire industrielle, les principaux résultats de la thèse consistent à caractériser des configurations problématiques. Chacune d’entre elles met en évidence les relations entre une façon de composer avec les risques associés à la technologie aérosol, une manière de prendre en compte des critiques spécifiques, un mode d’intervention des autorités publiques et des modalités différentes de la réflexivité industrielle. / Aerosol dispenser is a pervasive technology in our everyday life (shaving foam, hairspray, insecticide, whipped cream ...), yet constantly criticized and in competition with multiple alternatives. Its very script comprises various risks. The thesis starts from this observation to ask a concise question : How have aerosol technology and the industry producing it managed to persist since the 1950s? To answer this question, the thesis develops a diachronic analysis of the development of the aerosol and its industry by mobilizing an adapted methodological instrumentation. The empirical work supposes that there is no single "industry" but several industries based on sites and temporalities. These industries are the outcome of works leading to the successive recompositions of industrial collectives. In order to follow the joint reconstructions of aerosol technology and its productive apparatus, the thesis does not follow a specific technical object but mobilizes the notion of technological principle enabling the analysis to articulate several critical moments in the development of aerosol technology. Thus, each critical moment constitutes a specific form of trial in which the industry adopts an adapted reflexive modality. In addition to a methodological contribution proposing to articulate several scholarly fields such as Science and Technology Studies, political science, the sociology of risk, the sociology of markets and industrial history, the main results of the thesis consist in characterizing problematic configurations, each of them highlighting the relations between a way of dealing with the risks associated with the aerosol technology, a way of taking into account specific criticisms, a mode of intervention of public authorities and various modalities of industrial reflexivity.
207

Statistical moments of the multiplicity distributions of identified particles in Au+Au collisions

McDonald, Daniel 16 September 2013 (has links)
In part to search for a possible critical point (CP) in the phase diagram of hot nuclear matter, a beam energy scan was performed at the Relativistic Heavy-Ion Collider at Brookhaven National Laboratory. The Solenoidal Tracker at RHIC (STAR) collected Au+Au data sets at beam energies, √sNN , of 7.7, 11.5, 19.6, 27, 39, 62.4, and 200 GeV. Such a scan produces hot nuclear matter at different locations in the phase diagram. Lattice and phenomenological calculations suggest that the presence of a CP might result in divergences of the thermodynamic susceptibilities and correlation lengths. The statistical moments of the identified-particle multiplicity distributions directly depend on both the thermodynamic susceptibilities and correlation lengths, possibly making the shapes of these multiplicity distributions sensitive tools for the search for the critical point. The statistical moments of the multiplicity distributions of a number of different groups of identified particle species were analyzed. Care was taken to remove a number of experimental artifacts that can modify the shapes of the multiplicity distributions. The observables studied include the lowest four statistical moments (mean, variance, skewness, kurtosis) and some products of these moments. These observables were compared to the predictions from several approaches lacking critical behavior, such as the Hadron Resonance Gas model, mixed events, (negative) binomial, and Poisson statistics. In addition, the data were analyzed after gating on the event-by-event antiproton-to-proton ratio, which is expected to more tightly constrain the event trajectories on the phase diagram.
208

Adaptive numerical techniques for the solution of electromagnetic integral equations

Saeed, Usman 07 July 2011 (has links)
Various error estimation and adaptive refinement techniques for the solution of electromagnetic integral equations were developed. Residual based error estimators and h-refinement implementations were done for the Method of Moments (MoM) solution of electromagnetic integral equations for a number of different problems. Due to high computational cost associated with the MoM, a cheaper solution technique known as the Locally-Corrected Nyström (LCN) method was explored. Several explicit and implicit techniques for error estimation in the LCN solution of electromagnetic integral equations were proposed and implemented for different geometries to successfully identify high-error regions. A simple p-refinement algorithm was developed and implemented for a number of prototype problems using the proposed estimators. Numerical error was found to significantly reduce in the high-error regions after the refinement. A simple computational cost analysis was also presented for the proposed error estimation schemes. Various cost-accuracy trade-offs and problem-specific limitations of different techniques for error estimation were discussed. Finally, a very important problem of slope-mismatch in the global error rates of the solution and the residual was identified. A few methods to compensate for that mismatch using scale factors based on matrix norms were developed.
209

Anisotropy in CdSe quantum rods

Li, Liang-shi January 2003 (has links)
Thesis (Ph.D.); Submitted to the University of California at Berkeley, Berkeley, CA (US); 1 Sep 2003. / Published through the Information Bridge: DOE Scientific and Technical Information. "LBNL--55023" Li, Liang-shi. USDOE Director. Office of Science. Office of Basic Energy Sciences (US) 09/01/2003. Report is also available in paper and microfiche from NTIS.
210

Contribution à la modélisation et à la simulation numérique multi-échelle du transport cinétique électronique dans un plasma chaud

Mallet, Jessy 01 October 2012 (has links)
En physique des plasmas, le transport des électrons peut être décrit d'un point de vue cinétique ou d'un point de vue hydrodynamique.En théorie cinétique, une équation de Fokker-Planck couplée aux équations de Maxwell est utilisée habituellement pour décrire l'évolution des électrons dans un plasma collisionnel. Plus précisément la solution de l'équation cinétique est une fonction de distribution non négative f spécifiant la densité des particules en fonction de la vitesse des particules, le temps et la position dans l'espace. Afin d'approcher la solution de ce problème cinétique, de nombreuses méthodes de calcul ont été développées. Ici, une méthode déterministe est proposée dans une géométrie plane. Cette méthode est basée sur différents schémas numériques d'ordre élevé . Chaque schéma déterministe utilisé présente de nombreuses propriétés fondamentales telles que la conservation du flux de particules, la préservation de la positivité de la fonction de distribution et la conservation de l'énergie. Cependant, le coût de calcul cinétique pour cette méthode précise est trop élevé pour être utilisé dans la pratique, en particulier dans un espace multidimensionnel.Afin de réduire ce temps de calcul, le plasma peut être décrit par un modèle hydrodynamique. Toutefois, pour les nouvelles cibles à haute énergie, les effets cinétiques sont trop importants pour les négliger et remplacer le calcul cinétique par des modèles habituels d'Euler macroscopiques. C'est pourquoi une approche alternative est proposée en considérant une description intermédiaire entre le modèle fluide et le modèle cinétique. Pour décrire le transport des électrons, le nouveau modèle réduit cinétique M1 est basé sur une approche aux moments pour le système Maxwell-Fokker-Planck. Ce modèle aux moments utilise des intégrations de la fonction de distribution des électrons sur la direction de propagation et ne retient que l'énergie des particules comme variable cinétique. La variable de vitesse est écrite en coordonnées sphériques et le modèle est défini en considérant le système de moments par rapport à la variable angulaire. La fermeture du système de moments est obtenue sous l'hypothèse que la fonction de distribution est une fonction d'entropie minimale. Ce modèle satisfait les propriétés fondamentales telles que la conservation de la positivité de la fonction de distribution, les lois de conservation pour les opérateurs de collision et la dissipation d'entropie. En outre une discrétisation entropique avec la variable de vitesse est proposée sur le modèle semi-discret. De plus, le modèle M1 peut être généralisé au modèle MN en considérant N moments donnés. Le modèle aux N-moments obtenu préserve également les propriétés fondamentales telles que les lois de conservation et la dissipation de l'entropie. Le schéma semi-discret associé préserve les propriétés de conservation et de décroissance de l'entropie. / In plasma physics, the transport of electrons can be described from a kinetic point of view or from an hydrodynamical point of view.Classically in kinetic theory, a Fokker-Planck equation coupled with Maxwell equations is used to describe the evolution of electrons in a collisional plasma. More precisely the solution of the kinetic equations is a non-negative distribution function f specifying the density of particles as a function of velocity of particles, the time and the position in space. In order to approximate the solution of such problems, many computational methods have been developed. Here, a deterministic method is proposed in a planar geometry. This method is based on different high order numerical schemes. Each deterministic scheme used presents many fundamental properties such as conservation of flux particles, preservation of positivity of the distribution function and conservation of energy. However the kinetic computation of this accurate method is too expensive to be used in practical computation especially in multi-dimensional space.To reduce the computational time, the plasma can be described by an hydrodynamic model. However for the new high energy target drivers, the kinetic effects are too important to neglect them and replace kinetic calculus by usual macroscopic Euler models.That is why an alternative approach is proposed by considering an intermediate description between the fluid and the kinetic level. To describe the transport of electrons, the new reduced kinetic model M1 proposed is based on a moment approach for Maxwell-Fokker-Planck equations. This moment model uses integration of the electron distribution function on the propagating direction and retains only the energy of particles as kinetic variable. The velocity variable is written in spherical coordinates and the model is written by considering the system of moments with respect to the angular variable. The closure of the moments system is obtained under the assumption that the distribution function is a minimum entropy function. This model is proved to satisfy fundamental properties such as the non-negativity of the distribution function, conservation laws for collision operators and entropy dissipation. Moreover an entropic discretization in the velocity variable is proposed on the semi-discrete model. Moreover the M1 model can be generalized to the MN model by considering N given moments. The N-moments model obtained also preserves fundamental properties such as conservation laws and entropy dissipation. The associated semi-discrete scheme is shown to preserve the conservation properties and entropy decay.

Page generated in 0.0787 seconds