• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 40
  • 17
  • 3
  • Tagged with
  • 61
  • 61
  • 21
  • 16
  • 11
  • 11
  • 10
  • 10
  • 9
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estimation et prévision améliorées du paramètre d'une loi binomiale

Nemiri, Ahmed 03 1900 (has links) (PDF)
Dans ce mémoire, on présente une étude sur l'estimation et la prévision du paramètre binomial. Le Chapitre 1 traite de l'estimation ponctuelle et de la prévision du paramètre binomial. En suivant l'approche de Brown (2008a), on commence ce chapitre par la description de six estimateurs : trivial, moyenne générale, Bayes empirique paramétrique avec la méthode des moments, Bayes empirique paramétrique avec la méthode du maximum de vraisemblance, Bayes empirique non paramétrique et James-Stein. Ensuite, on évalue ces estimateurs en se servant de la base de données de baseball 2005 de Brown (2008b) et on finit par la comparaison des performances de ces estimateurs entre elles, selon leurs écarts quadratiques totaux normalisés. Le Chapitre 2 traite de l'estimation par intervalle de confiance et de la prévision du paramètre binomial. Dans ce chapitre, on étudie cinq intervalles de confiance en suivant l'approche de Brown, Cai et DasGupta (1999) et (2001) : standard ICs, Wilson ICw, Agresti-Coull ICac, maximum de vraisemblance ICrv et Jeffreys bilatéral ICj. En premier, vu l'importance particulière de l'intervalle standard, on calcule théoriquement, avec un n modéré, la déviation du biais, de la variance et des coefficients d'asymétrie et d'aplatissement de la variable aléatoire Wn = (n1/2(p-p) / √pq) loi→ N (0,1) par rapport à leurs valeurs asymptotiques correspondantes 0, 1, 0 et 3. Ensuite, on approxime la probabilité de couverture et la longueur moyenne de chacun des cinq intervalles de confiance mentionnés plus haut par un développement d'Edgeworth d'ordres 1 et 2. Enfin, en se servant de la même base de données de baseball 2005, on détermine ces intervalles ainsi que leurs probabilités de couverture et leurs longueurs moyennes et on compare leurs performances entre elles, selon leurs probabilités de couverture et leurs longueurs moyennes. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : estimateur de Bayes empirique paramétrique, méthode des moments, méthode du maximum de vraisemblance, estimateur de Bayes empirique non paramétrique, estimateur de James-Stein, développement d'Edgeworth d'ordres 1 et 2, intervalle de Wald (standard), intervalle de Wilson , intervalle d'Agresti-Coull, intervalle du rapport de vraisemblance, intervalle de Jeffreys bilatéral, programmes en R.
2

Modélisation de dispositifs électromagnétiques hautement saturables par la méthode des moments magnétiques. Application aux capteurs de courant des disjoncteurs basse tension

Janet, Fleur 18 December 2003 (has links) (PDF)
Cette thèse concerne l'étude des capteurs de courant des disjoncteurs à déclencheur électronique basse tension. La compacité et l'asymétrie de ces capteurs sont à l'origine d'un comportement magnétique complexe dont la modélisation est malaisée. Le travail réalisé a consisté à déterminer un modèle comportemental paramétrable du capteur, compatible avec une optimisation, permettant de prendre en compte son environnement magnétique (autres phases) et sa charge électrique (électronique). Suite à la mise en évidence de l'inadéquation des méthodes "traditionnelles" (schéma électrique ou magnétique équivalent, méthode des éléments finis) avec ce cahier des charges, les travaux ont été orientés vers la méthode des moments magnétiques. Fondé sur cette méthode, un modèle extrêmement simple du capteur a ainsi été mis au point.
3

Identification de sources magnétiques : robustesse et optimisation des mesures.<br />Application à la reconstruction de l'aimantation des navires

Guerin, Sébastien 30 September 2005 (has links) (PDF)
L'immunisation en boucle fermée est un système visant à protéger en temps réel un navire du risque magnétique qu'il encourt. En effet, l'acier, constituant principal des bâtiments de la marine, s'aimante sous l'action du champ magnétique terrestre créant ainsi une anomalie locale de ce champ. Cette anomalie peut être l'origine de la détection ou même de la destruction du bateau. Les travaux précédents ont permis de mettre en place un algorithme permettant de prédire avec une erreur inférieure à 10% l'anomalie d'une maquette simplifiée de bateau à partir des données physiques du bateau et de mesures internes d'induction magnétique. L'objectif du travail est d'améliorer l'outil existant pour qu'il soit fonctionnel sur un navire réel. La première partie de ce document présente l'intégration analytique qui améliore la précision des calculs et permet aussi de rapprocher les capteurs de la coque. La deuxième partie est consacrée à l'étude du gradient magnétique. Cette grandeur physique, plus locale que l'induction, est utile pour prendre en compte les anomalies locales pouvant perturber la mesure d'induction (masse interne, objet métallique,...). Une validation expérimentale a permis de mettre en avant les possibilités du gradient magnétique. La troisième partie introduit la notion de potentiel scalaire magnétique qui donne une vision plus globale de l'anomalie magnétique. Une étude numérique a confirmé l'intérêt de cette grandeur. La dernière partie du rapport aborde une étude d'optimisation et de robustesse visant à fournir une méthode de placement des capteurs applicable dans le cas d'un bâtiment réel.
4

Inférence statistique pour un modèle de dégradation en présence de variables explicatives

Salami, Ali 07 January 2011 (has links) (PDF)
Dans cette thèse, on modélise le fonctionnement d'un système soumis à une dégradation continue. Ce système est considéré en panne dès que le niveau de dégradation dépasse un certain seuil critique fixé a priori. Dans ce travail, on s'intéresse tout d'abord aux temps d'atteinte de seuils critiques (déterministe ou aléatoire) pour un processus gamma non homogène. Une nouvelle approche est proposée ensuite pour décrire la dégradation d'un système. Cette approche consiste à considérer que la dégradation résulte de la somme d'un processus gamma et d'un mouvement brownien indépendant. Comme la dégradation du système est également influencée par l'environnement, il est intéressant d'envisager un modèle intégrant des covariables. En se basant sur le premier modèle, on suppose que les variables explicatives agissent seulement sur le processus gamma du modèle et qu'elles sont intégrées de manière à affecter l'échelle du temps. Ces modèles (avec ou sans covariables) sont décrits par des paramètres que l'on cherche à estimer. On étudie aussi leurs comportements asymptotiques (convergence et normalité asymptotique). Finalement des tests numériques aussi qu'une application à des données réelles de grande taille sont présentés pour illustrer nos méthodes.
5

Etude dynamique des modes collectifs dans les gaz de fermions froids

Lepers, Thomas 25 June 2010 (has links) (PDF)
Grace aux progrès énormes des techniques de refroidissement, des expériences actuelles avec des atomes fermioniques piégés atteignent des températures extrêmement basses de l'ordre du nanoKelvin. Le but principal de ces expériences est l'étude de la transition nommée "BEC-BCS crossover". Pour cela, on change le champ magnétique autour d'une résonance de Feschbach, ce qui implique que la longueur de diffusion change des valeurs répulsives (a positif), à travers la limite unitaire (a infini) aux valeurs attractives (a négatif). Du côté BEC, où le système forme un condensat de Bose-Einstein de molécules fortement liées, aussi bien que du côté BCS, où les atomes forment des paires de Cooper qui ont une grande extension par rapport à la distance moyenne entre les atomes, on s'attend à ce que le système devienne superfluide, à condition que la température soit inférieure à une certaine température critique. Afin de trouver des signes sans équivoque de la superfluidité, il est nécessaire de regarder des observables dynamiques comme l'expansion du nuage atomique lorsque le piège est éteint ou des oscillations collectives du nuage. Le travail effectué au cours de cette thèse est une étude de la dynamique des modes collectifs dans les gaz de fermions froids. Nous avons développé un modèle basé sur l'évaluation de la matrice T. L'utilisation de l'équation de transport de Boltzmann pour les particules permet ensuite une étude semi-numérique des modes collectifs dans tous les régimes d'interaction. Cette étude a permis de mettre en évidence pour la première fois que la fréquence du mode radial quadrupolaire est supérieure à deux fois la fréquence du piège, comme cela est vérifié expérimentalement et contrairement aux premières théories n'incluant pas les effets de champ moyen. Les résultats obtenus ont aussi mis en évidence la nécessité d'une résolution numérique complète de l'équation de Boltzmann et de l'amélioration des techniques de détermination des observables physiques du gaz. Cette résolution numérique de l'équation de Boltzmann a montré que la détermination du temps de relaxation par la méthode des moments est erronée de 30%, ce qui influe fortement sur la détermination de la fréquence et de l'amortissement du mode collectif. Enfin, l'amélioration de la méthode des moments, considérant l'ordre supérieur, permet d'améliorer sensiblement l'accord avec le résultat numérique. Une telle investigation n'avait jamais été réalisée et montre la nécessité de considérer les moments d'ordre supérieurs pour l'étude des modes collectifs par l'équation de Boltzmann d'un gaz de fermions dans la phase normale.
6

Rayonnement dans les convertisseurs d'électronique de puissance

Youssef, Moez 21 December 1998 (has links) (PDF)
L'étude de la compatibilité électromagnétique (CEM) est devenue un passage obligé pour les concepteurs de circuits d'électronique de puissance. La complexité des phénomènes qui entrent en jeu lors de cette étude fait de plus en plus sentir le besoin d'un outil CAO de prédiction des perturbations électromagnétiques conduites et rayonnées. I-e présent travail est consacré au calcul du champ rayonné par un circuit d'électronique de puissance. Comme première étape, le champ rayonné a été calculé à partir du courant mesuré. Ensuite, dans le but de développer un outil de simulation de circuits d'électronique de puissance, certaines méthodes de modélisation de câblage ont été étudiées. Notre choix s'est fixé sur la méthode rPEEC qui permet de modéliser chaque partie du câblage par un circuit électrique équivalent, qu'on peut facilement implanter dans un logiciel de simulation. Cette méthode a été appliquée pour deux géométries qu'on rencontre souvent on électronique de puissance ainsi qu'au cas de I'anterne. La validité de la méthode sur une large gamme de fréquence a été ainsi confirmée.
7

Observateurs pour un procédé de cristallisation en batch

Uccheddu, Basile 11 July 2011 (has links) (PDF)
Ce travail a pour but la réalisation d'un outil permettant d'estimer la germination et la distribution en taille de cristaux d'un procédé de cristallisation. Pour ce faire un modèle de cristallisation a été développé et nous a permis de réaliser un observateur de dimension finie afin d'estimer la germination. Par la suite, un observateur de dimension infinie a été mis au point dans le but d'estimer la distribution de taille des cristaux à partir de la germination et de la mesure d'une taille de la distribution. Les deux observateurs ont été validés expérimentalement sur un procédé "batch" de cristallisation de l'oxalate d'ammonium.
8

Generalized empirical likelihood for a continuum of moment conditions

Chaussé, Pierre 02 1900 (has links) (PDF)
Dans cette thèse, je propose une généralisation de la méthode de vraisemblance empirique généralisée (GEL) pour permettre la possibilité d'avoir soit un très grand nombre de conditions de moment ou des conditions définies sur un continuum. Cette généralisation peut permettre par exemple d'estimer des modèles de régression avec régresseurs endogènes pour lesquels le nombre d'instruments est très élevé ou encore que la relation entre les régresseurs et les variables exogènes est inconnue. Il est également possible de baser notre estimation sur des conditions de moment construites à partir de fonctions caractéristiques. Il devient alors possible d'estimer les coefficients d'une distribution quelconque ou d'un processus stochastique lorsque sa fonction de vraisemblance n'admet pas de forme analytique. C'est le cas entre autres de la distribution stable et de la plupart des processus de diffusion exprimés en temps continu. Cette généralisation a été proposée par (Carrasco and Florens, 2000) pour la méthode des moments généralisés (CGMM). Sur la base des résultats de (Newey and Smith, 2004), qui démontrent la supériorité asymptotique de GEL sur GMM, la méthode que je propose représente donc une contribution substantielle. La thèse est divisée en trois chapitres. Le premier présente en détails la méthode de vraisemblance empirique généralisée pour un continuum de moments (CGEL), démontre la convergence en probabilité et en distribution de ses estimateurs et décrit la procédure à suivre en pratique pour estimer les coefficients du modèle à l'aide d'une approche matricielle relativement simple. De plus, je démontre l'équivalence asymptotique de CGEL et CGMM. CGEL est en fait un algorithme non-linéaire régularisé à la Tikhonov, qui permet d'obtenir l'estimateur GEL dans le cas où le nombre de conditions est très grand. Dans cette méthode, un paramètre de régularisation, αn, permet de résoudre le problème d'optimisation mal posé qui en résulte et d'obtenir une solution unique et stable. Le paramètre αn doit converger vers zéro lentement lorsque la taille d'échantillon augmente pour que l'estimateur soit convergent et que la solution demeure stable. Les détails du rythme de convergence de αn sont également présentés dans ce chapitre. Finalement, le chapitre présente la façon de tester les conditions de moments en généralisant les trois tests de spécifications existants pour GEL. Dans le chapitre 2, je présente plusieurs applications numériques. L'objectif est de voir les possibilités de CGEL, d'analyser les propriétés et ses estimateurs en échantillons finis, en comparaison avec ceux de CGMM, et de comprendre l'impact du paramètre αn sur le biais et la variance des estimateurs. Les applications analysées sont : l'estimation d'un modèle linéaire avec endogénéité de forme inconnue, l'estimation des paramètres d'une distribution stable et l'estimation des coefficients d'un processus de diffusion. De façon générale les résultats démontrent que la dominance de CGEL sur CGMM dépend de la valeur de αn. Cela démontre en fait la nécessité de développer une méthode de sélection de αn. Finalement, une méthode de sélection du paramètre an est proposée dans le dernier chapitre. Dans un premier temps, je démontre qu'une méthode de bootstrap simple permet difficilement de faire un choix optimal car elle produit une relation très volatile entre αn et l'erreur quadratique moyen (MSE) du coefficient. Ensuite, je présente une approximation de second ordre du MSE de CGEL par un développement stochastique des conditions de premier ordre comme fait par (Donald and Newey, 2001) pour les double moindres carrés, (Donald, Imbens and Newey, 2010) pour GEL ainsi que (Carrasco, 2010) et (Carrasco and Kotchoni, 2010) pour CGMM. Cette approche permet d'obtenir une relation lisse entre αn et le MSE et donc d'utiliser un algorithme d'optimisation pour obtenir le paramètre optimal. Les résultats semblent être conformes aux résultants précédents selon lesquels la méthode de vraisemblance empirique domine les autres méthodes faisant partie de la famille CGEL. Ils semblent également suggérer que αn, pour le cas linéaire considéré, devrait être choisi aussi petit que possible car c'est de cette façon que le MSE est minimisé. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Vraisemblance Généralisée, Continuum de moments, Méthode des moments généralisés, Économétrie, Variables Instrumentales
9

Modélisation de la diffusion électromagnétique par les vagues côtières déferlantes

Khairi, Refzul 11 March 2013 (has links) (PDF)
L'objectif de ce travail de thèse est d'étudier l'interaction des ondes électromagnétiques en bande L avec les vagues côtières déferlantes, en particulier pour un observateur situé à proximité de la surface. Le travail s'attache à effectuer une modélisation électromagnétique précise en lien étroit avec le modèle hydrodynamique. Pour modéliser et calculer les champs électromagnétiques diffusés par les vagues déferlantes, nous utilisons une approche numérique par intégrale de frontière, notamment la Méthode des Moments (MdM). Dans ce cadre, nous focalisons le travail sur la problématique de la fiabilité et la convergence du calcul numérique pour des géométries de forte courbure comme peuvent l'être des surfaces de vagues déferlantes. Après une analyse approfondie de la problématique, nous montrons qu'une solution fondée sur la Méthode des Moments d'Ordre Supérieur (MdM-OS) combinée avec la technique de maillage Non Uniform Rational Basis Splines (NURBS) permet d'améliorer les performances de la méthode MdM-Classique. En parallèle du travail de modélisation électromagnétique, nous nous attachons à introduire un modèle hydrodynamique capable de simuler le plus fidèlement possible le mouvement et la déformation des vagues à proximité de la côte. Nous retenons une modélisation hydrodynamique basée sur la Méthode Désingularisée. Cette approche méthodologique nous permet d'étudier l'évolution des vagues en fonction de la pente du fond, de la hauteur relative et de la cambrure des vagues. La combinaison des résultats issus de la modélisation numérique électromagnétique et de la description hydrodynamique permettent ainsi d'évaluer l'évolution des champs électromagnétiques diffusés par les vagues côtières déferlantes en fonction du temps pour trois types de déferlement standard : glissant, plongeant et gonflant.
10

Analysis of multidimensional radiating structures by the spatial Fourier transform and computational electromagnetics / Analyse de structures rayonnantes multidimensionnelles avec la transformée de Fourier spatiale et la méthode des moments

Emidio, Fernando 19 July 2013 (has links)
Ce manuscrit présente les travaux de recherche qui concernent l'analyse et la synthèse de structures rayonnantes multidimensionnelles en utilisant une approche qui combine méthode des moments et la transformée de Fourier spatiale. La distribution source (courant électrique) et le diagramme de rayonnement sont liées par la transformée de Fourier spatiale - la théorie de la Relation de Fourier (FR). La distribution des courants est déterminée en utilisant une méthode d'analyse en électromagnétisme (EM), à savoir la Méthode des Moments (MoM). Des travaux antérieurs utilisant la théorie FR ont été réalisés par d'autres auteurs sur des réseaux linéaires - uniformément espacés ou non uniformes. Les sources radiantes élémentaires des dipoles électriques filaires. Les travaux actuels se développent en utilisant la théorie FR à deux et trois dimensions sur des structures réelles. En utilisant la méthode MoM nous pouvons prendre en compte le rayon du fil, sur n'importe quel point d'excitation (générateur de tension ou onde incidente) et le couplage mutuel entre les éléments, créant ainsi un modèle électromagnétique réaliste pour la structure d'antenne / This manuscript presents the research work in the analysis and synthesis of multidimensional radiating structures using an approach that combines Method of Moments and Spatial Fourier Transform. The source distribution (electric current) and radiation pattern are related by the spatial Fourier Transform - Fourier Relation theory (FR). Current distribution is determined using Computational Electromagnetics (CEM), namely Method of Moments (MoM). Previous work using FR theory was done by other authors on linear arrays – uniformly or nonuniformly spaced elemental radiators laid on a straight line. Present work expands FR theory to two and three dimensions on real-world structures. By using MoM we can take into account wire radius, excitation on any point (voltage generator or incident wave) and mutual coupling between elements, thus creating a realistic electromagnetic model for the antenna structure

Page generated in 0.1187 seconds