• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2517
  • 773
  • 213
  • 12
  • 4
  • 4
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 3572
  • 1408
  • 880
  • 627
  • 571
  • 560
  • 412
  • 364
  • 338
  • 338
  • 324
  • 322
  • 318
  • 315
  • 306
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Caractérisation du comportement non-linéaire des matériaux à partir d'essais statiquement indéterminés et de champs de déformation fortement hétérogènes

Blanchard, Samuel 17 December 2009 (has links) (PDF)
Cette étude consiste à développer des outils permettant de mieux caractériser le comportement de matériaux ayant subi des transformations lors du procédé de fabrication d'une structure (mise en forme, assemblage). Pour cela, la démarche mise en place s'organise autour de quatre chapitres. Dans le premier, une étude bibliographique permet de faire l'état de l'art des différentes méthodes d'identification de loi de comportement non linéaires. A la suite de cette étude, la Méthode des Champs Virtuels, couplée à des mesures par stéréo corrélation d'images, est mise en œuvre pour identifier les paramètres d'une loi de comportement (élastoplastique) à partir de champs de déformation fortement hétérogènes. Le but de cette étude est de mieux comprendre quels sont les facteurs expérimentaux et numériques pouvant corrompre les résultats de l'identification. Le second chapitre est consacré au développement et à la validation des outils numériques qui seront utilisés pour caractériser le comportement du matériau. Le troisième porte sur l'étude des conséquences de l'utilisation de données expérimentales (imparfaites) sur le calcul de l'équation d'équilibre à la base de la procédure d'identification. Enfin, dans le dernier chapitre, les paramètres du modèle de comportement matériau sont identifiés à partir d'essais fortement hétérogènes (essais Arcan 0°, 45° et 90°). Les résultats obtenus mettent en évidence l'importance des hypothèses utilisées pour modéliser le comportement du matériau ainsi que le fort potentiel de la Méthode des Champs Virtuels pour caractériser le comportement de matériau. Fort potentiel qui peut d'ailleurs être un inconvénient si le problème est mal défini.
112

Rayonnement dans les convertisseurs d'électronique de puissance

Youssef, Moez 21 December 1998 (has links) (PDF)
L'étude de la compatibilité électromagnétique (CEM) est devenue un passage obligé pour les concepteurs de circuits d'électronique de puissance. La complexité des phénomènes qui entrent en jeu lors de cette étude fait de plus en plus sentir le besoin d'un outil CAO de prédiction des perturbations électromagnétiques conduites et rayonnées. I-e présent travail est consacré au calcul du champ rayonné par un circuit d'électronique de puissance. Comme première étape, le champ rayonné a été calculé à partir du courant mesuré. Ensuite, dans le but de développer un outil de simulation de circuits d'électronique de puissance, certaines méthodes de modélisation de câblage ont été étudiées. Notre choix s'est fixé sur la méthode rPEEC qui permet de modéliser chaque partie du câblage par un circuit électrique équivalent, qu'on peut facilement implanter dans un logiciel de simulation. Cette méthode a été appliquée pour deux géométries qu'on rencontre souvent on électronique de puissance ainsi qu'au cas de I'anterne. La validité de la méthode sur une large gamme de fréquence a été ainsi confirmée.
113

Algorithmes d'Ensemble Actif pour le LASSO

Loth, Manuel 08 July 2011 (has links) (PDF)
Cette thèse aborde le calcul de l'opérateur LASSO (Least Absolute Shrinkage and Selection Operator), ainsi que des problématiques qui lui sont associées, dans le domaine de la régression. Cet opérateur a suscité une attention croissante depuis son introduction par Robert Tibshirani en 1996, par sa capacité à produire ou identi fier des modèles linéaires parcimonieux à partir d'observations bruitées, la parcimonie signi fiant que seules quelques unes parmi de nombreuses variables explicatives apparaissent dans le modèle proposé. Cette sélection est produite par l'ajout à la méthode des moindres-carrés d'une contrainte ou pénalisation sur la somme des valeurs absolues des coe fficients linéaires, également appelée norme l1 du vecteur de coeffi cients. Après un rappel des motivations, principes et problématiques de la régression, des estimateurs linéaires, de la méthode des moindres-carrés, de la sélection de modèle et de la régularisation, les deux formulations équivalentes du LASSO contrainte ou régularisée sont présentées; elles dé finissent toutes deux un problème de calcul non trivial pour associer un estimateur à un ensemble d'observations et un paramètre de sélection. Un bref historique des algorithmes résolvant ce problème est dressé, et les deux approches permettant de gérer la non-di fferentiabilité de la norme l1 sont présentées, ainsi que l'équivalence de ces problèmes avec un programme quadratique. La seconde partie se concentre sur l'aspect pratique des algorithmes de résolution du LASSO. L'un d'eux, proposé par Michael Osborne en 2000, est reformulé. Cette reformulation consiste à donner une défi nition et explication générales de la méthode d'ensemble actif, qui généralise l'algorithme du simplex à la programmation convexe, puis à la spéci fier progressivement pour la programmation LASSO, et à adresser les questions d'optimisation des calculs algébriques. Bien que décrivant essentiellement le même algorithme que celui de Michael Osborne, la présentation qui en est faite ici a l'ambition d'en exposer clairement les mécanismes, et utilise des variables di fférentes. Outre le fait d'aider à mieux comprendre cet algorithme visiblement sous-estimé, l'angle par lequel il est présenté éclaire le fait nouveau que la même méthode s'applique naturellement à la formulation régularisée du LASSO, et non uniquement à la formulation contrainte. La populaire méthode par homotopie (ou LAR-LASSO, ou LARS) est ensuite présentée comme une dérivation de la méthode d'ensemble actif, amenant une formulation alternative et quelque peu simpli fiée de cet algorithme qui fournit les solutions du LASSO pour chaque valeur de son paramètre. Il est montré que, contrairement aux résultats d'une étude récente de Jerome H. Friedman, des implémentations de ces algorithmes suivant ces reformulations sont plus effi caces en terme de temps de calcul qu'une méthode de descente par coordonnées. La troisième partie étudie dans quelles mesures ces trois algorithmes (ensemble actif, homotopie, et descente par coordonnées) peuvent gérer certains cas particuliers, et peuvent être appliqués à des extensions du LASSO ou d'autres problèmes similaires. Les cas particuliers incluent les dégénérescences, comme la présence de variables lineairement dépendantes, ou la sélection/désélection simultanée de variables. Cette dernière problématique, qui était délaissée dans les travaux précédents, est ici expliquée plus largement et une solution simple et efficace y est apportée. Une autre cas particulier est la sélection LASSO à partir d'un nombre très large, voire infi ni de variables, cas pour lequel la méthode d'ensemble actif présente un avantage majeur. Une des extensions du LASSO est sa transposition dans un cadre d'apprentissage en ligne, où il est désirable ou nécessaire de résoudre le problème sur un ensemble d'observations qui évolue dans le temps. A nouveau, la flexibilité limitée de la méthode par homotopie la disquali fie au pro fit des deux autres. Une autre extension est l'utilisation de la pénalisation l1 sur d'autres fonction coûts que la norme l2 du résidu, ou en association avec d'autres pénalisations, et il est rappelé ou établi dans quelles mesures et de quelle façon chaque algorithme peut être transposé à ces problèmes.
114

Développement d'une méthode d'analyse quantitative du quartz dans différentes matrices par diffraction des rayons X combinée à la méthode Rietveld

Martin, Joannie 02 1900 (has links) (PDF)
La silice cristalline quartz est l'une des substances causant le plus de décès reliés aux substances chimiques en milieu de travail au Québec. Les différents intervenants québécois en hygiène du travail aimeraient dans de nombreux cas connaître son pourcentage dans les matériaux dans le but d'optimiser leur plan d'interventions en milieu de travail. La provenance des échantillons étant aussi variée que les mines, les industries des produits en pierre, les sablières et gravières, ces matrices ajoutent une complexité à la quantification de la silice cristalline dans une large gamme de concentrations allant de 0 à 100 % (p/p). Puisqu'il existe différents polymorphes de la silice cristalline et qu'elle est aussi fréquente sous forme amorphe, une technique permettant la distinction entre ces différentes formes doit être utilisée. Le but premier de cette étude était donc de développer une méthode de quantification du quartz, le polymorphe le plus abondant de la silice cristalline. Cette méthode doit convenir à plusieurs types de matrice et permettre une bonne exactitude sur la quantification du quartz sur une large gamme de concentrations. Afin de pouvoir être éventuellement utilisée dans le cadre d'analyses routinières, la méthode devait s'avérer simple d'exécution et relativement rapide. Une procédure standard a donc été mise sur pied utilisant la diffraction des rayons X sur poudre combinée à la méthode Rietveld automatisée. Des échantillons simulés de matrices diverses et de concentrations variables en quartz ont permis d'optimiser chaque étape de la méthode, du montage de l'échantillon à l'affinement Rietveld en passant par les conditions d'analyse. À la suite de tests sur dix-neuf échantillons, une erreur absolue moyenne de 1,07 % (p/p) a été trouvée pour la concentration de quartz ainsi qu'une limite de détection de 0,24 % (p/p). La qualité des résultats obtenus confirme que cette méthode s'avère efficace pour la quantification du quartz à plusieurs concentrations et dans différentes matrices. L'erreur doit toutefois être diminuée pour pouvoir aspirer à la quantification fiable de très faibles quantités de quartz. La méthode est simple et permet l'analyse complète d'un échantillon en moins d'une heure, une certaine expérience est toutefois nécessaire pour valider les résultats obtenus. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Diffraction des rayons X, Méthode Rietveld, Quartz, Analyse quantitative.
115

Generalized empirical likelihood for a continuum of moment conditions

Chaussé, Pierre 02 1900 (has links) (PDF)
Dans cette thèse, je propose une généralisation de la méthode de vraisemblance empirique généralisée (GEL) pour permettre la possibilité d'avoir soit un très grand nombre de conditions de moment ou des conditions définies sur un continuum. Cette généralisation peut permettre par exemple d'estimer des modèles de régression avec régresseurs endogènes pour lesquels le nombre d'instruments est très élevé ou encore que la relation entre les régresseurs et les variables exogènes est inconnue. Il est également possible de baser notre estimation sur des conditions de moment construites à partir de fonctions caractéristiques. Il devient alors possible d'estimer les coefficients d'une distribution quelconque ou d'un processus stochastique lorsque sa fonction de vraisemblance n'admet pas de forme analytique. C'est le cas entre autres de la distribution stable et de la plupart des processus de diffusion exprimés en temps continu. Cette généralisation a été proposée par (Carrasco and Florens, 2000) pour la méthode des moments généralisés (CGMM). Sur la base des résultats de (Newey and Smith, 2004), qui démontrent la supériorité asymptotique de GEL sur GMM, la méthode que je propose représente donc une contribution substantielle. La thèse est divisée en trois chapitres. Le premier présente en détails la méthode de vraisemblance empirique généralisée pour un continuum de moments (CGEL), démontre la convergence en probabilité et en distribution de ses estimateurs et décrit la procédure à suivre en pratique pour estimer les coefficients du modèle à l'aide d'une approche matricielle relativement simple. De plus, je démontre l'équivalence asymptotique de CGEL et CGMM. CGEL est en fait un algorithme non-linéaire régularisé à la Tikhonov, qui permet d'obtenir l'estimateur GEL dans le cas où le nombre de conditions est très grand. Dans cette méthode, un paramètre de régularisation, αn, permet de résoudre le problème d'optimisation mal posé qui en résulte et d'obtenir une solution unique et stable. Le paramètre αn doit converger vers zéro lentement lorsque la taille d'échantillon augmente pour que l'estimateur soit convergent et que la solution demeure stable. Les détails du rythme de convergence de αn sont également présentés dans ce chapitre. Finalement, le chapitre présente la façon de tester les conditions de moments en généralisant les trois tests de spécifications existants pour GEL. Dans le chapitre 2, je présente plusieurs applications numériques. L'objectif est de voir les possibilités de CGEL, d'analyser les propriétés et ses estimateurs en échantillons finis, en comparaison avec ceux de CGMM, et de comprendre l'impact du paramètre αn sur le biais et la variance des estimateurs. Les applications analysées sont : l'estimation d'un modèle linéaire avec endogénéité de forme inconnue, l'estimation des paramètres d'une distribution stable et l'estimation des coefficients d'un processus de diffusion. De façon générale les résultats démontrent que la dominance de CGEL sur CGMM dépend de la valeur de αn. Cela démontre en fait la nécessité de développer une méthode de sélection de αn. Finalement, une méthode de sélection du paramètre an est proposée dans le dernier chapitre. Dans un premier temps, je démontre qu'une méthode de bootstrap simple permet difficilement de faire un choix optimal car elle produit une relation très volatile entre αn et l'erreur quadratique moyen (MSE) du coefficient. Ensuite, je présente une approximation de second ordre du MSE de CGEL par un développement stochastique des conditions de premier ordre comme fait par (Donald and Newey, 2001) pour les double moindres carrés, (Donald, Imbens and Newey, 2010) pour GEL ainsi que (Carrasco, 2010) et (Carrasco and Kotchoni, 2010) pour CGMM. Cette approche permet d'obtenir une relation lisse entre αn et le MSE et donc d'utiliser un algorithme d'optimisation pour obtenir le paramètre optimal. Les résultats semblent être conformes aux résultants précédents selon lesquels la méthode de vraisemblance empirique domine les autres méthodes faisant partie de la famille CGEL. Ils semblent également suggérer que αn, pour le cas linéaire considéré, devrait être choisi aussi petit que possible car c'est de cette façon que le MSE est minimisé. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Vraisemblance Généralisée, Continuum de moments, Méthode des moments généralisés, Économétrie, Variables Instrumentales
116

Contribution à l'intégration de temporalité au formalisme B : Utilisation du calcul des durées en tant que sémantique temporelle pour B

Colin, Samuel 03 October 2006 (has links) (PDF)
Dans le domaine des systèmes informatisés où la fiabilité est la première priorité, les méthodes formelles ont prouvé leur efficacité pour la conception de logiciels sûrs. La dépendance à de tels systèmes augmente, et les contraintes rencontrées se font plus diverses et précises, en particulier les contraintes temporelles. Certaines méthodes formelles, notamment la méthode B, rendent la conception malaisée sous de telles contraintes, puisqu'elles n'ont pas été prévues pour cela à l'origine.<br /><br />Nous nous proposons donc d'étendre la méthode B pour lui permettre de spécifier et valider des systèmes à contraintes temporelles complexes. Nous utilisons pour ce faire des calculs de durées pour exprimer la sémantique du langage B et en déduire une extension conservative qui permet de l'utiliser à la fois dans son cadre d'origine et dans le cadre de systèmes à contraintes temporelles.<br /><br />Nous nous penchons également sur le problème de l'utilisation d'un outil de preuve générique pour valider des formules de calcul des durées. La généricité de ce type d'outil répond à la multiplication des méthodes formelles, mais pose le problème de l'intégration des fondations mathématiques de ces méthodes à un outil générique. Nous proposons donc d'étudier la mise en oeuvre en plongement léger du calcul des durées dans l'assistant de preuve Coq. Nous en déduisons un retour sur expérience de la définition d'une logique modale particulière dans un outil à vocation générique.
117

Développement de méthodes intégrales de volume en électromagnétisme basse fréquence. Prise en compte des matériaux magnétiques et des régions minces conductrices dans la méthode PEEC

Le duc, Tung 28 September 2011 (has links) (PDF)
Cette thèse concerne l'étude des dispositifs d'électronique de puissance du point de vue de la modélisation. Ces derniers sont souvent constitués de conducteurs ayant des dimensions géométriques très hétérogènes (plaque à épaisseur faible devant la largeur et/ou la longueur par exemple) dont la modélisation est difficile. Les méthodes d'interactions proches, comme celle des éléments finis, sont mal adaptés car elle nécessite la discrétisation de la région air (maillage). Pour cette raison, les travaux ont été orientés vers l'utilisation et le développement des méthodes intégrales : méthode PEEC, méthode des moments magnétiques, méthode intégrale de volume, ces dernières étant particulièrement bien adaptées au calcul des interactions à distance... Les applications visées sont la modélisation de systèmes de conducteurs complexes associés à des masses ferromagnétiques (noyaux inductances par exemple) et à des blindages (carcasses d'armoires électriques par exemple). Ce type de structure se retrouve largement dans le domaine de l'électronique de puissance. Plusieurs formulations intégrales ont été proposées permettant la prise en compte des régions volumiques magnétiques et des régions minces conductrices et/ou magnétiques au sein de la méthode PEEC.
118

Entiers friables en progressions arithmétiques, et applications

Drappeau, Sary 19 November 2013 (has links) (PDF)
Dans cette thèse, on s'intéresse à certaines propriétés additives des entiers n'ayant pas de grand facteurs premiers. Un entier est dit y-friable si tous ses facteurs premiers sont inférieurs à y. Leur étude est de plus en plus délicate à mesure que y est petit par rapport à la taille des entiers impliqués. On s'intéresse tout d'abord au comptage des solutions à l'équation a+b=c en entiers y-friables a, b et c On étudie ensuite la valeur moyenne de certaines fonctions arithmétiques sur les entiers friables translatés, de la forme n-1 où n est y-friable. La méthode du cercle permet de ramener la première question à l'étude de sommes de caractères de Dirichlet tordus par une exponentielle sur les entiers friables, qui sont ensuite évaluées en utilisant des outils classiques d'analyse harmonique, et en faisant intervenir la méthode du col. Les premier et deuxième chapitres étudient la situation respectivement avec et sans l'hypothèse de Riemann généralisée. Les troisième et quatrième chapitres sont consacrés à la seconde question, qui se ramène à l'étude de la répartition des entiers friables en moyenne dans les progressions arithmétiques. Cela met en jeu des sommes de caractères de Dirichlet sur les entiers friables, ainsi que le grand crible. Dans le dernier chapitre, la méthode de dispersion est employée pour étudier le cas particulier du nombre moyen de diviseurs des entiers friables translatés.
119

Résolution numérique de l'équation de Lighthill par éléments finis et équations intégrales pour l'estimation du bruit rayonné par des écoulements en conduite

Gonzalez, Sébastien 25 June 2013 (has links) (PDF)
Cette thèse s'inscrit dans le cadre du projet CISSCOH (Caractérisation et Identification des Sources Sonores dans les Composants Hydrauliques) soutenu par la Région Picardie et regroupant différents partenaires industriels (CETIM et Poclain Hydraulics) et universitaire (UTC). L'objectif est la conception d'outils de calculs numériques pour estimer les niveaux de bruit émis et localiser leur origine lors de la phase de conception d'un composant hydraulique. Dans nos travaux, on s'intéresse plus précisément au bruit émis dans un conduit, généré par l'interaction entre un écoulement de fluide et un obstacle placé dans le conduit. Cette interaction génère des turbulences sources de bruit. Pour déterminer le champ de pression acoustique généré et propagé dans le conduit, on s'appuie sur l'analogie de Lighthill, formulée en 1952. Une chaîne de calcul, visant à estimer cette pression, est développée avec deux étapes principales : calcul du champ source (tenseurs de Lighthill) et propagation de la pression générée par les sources. Pour l'estimation de la pression acoustique, deux méthodes numériques classiques sont développées: une méthode de discrétisation par éléments finis et une méthode reposant sur la formulation intégrale de l'équation de Lighthill. A partir de ces deux méthodes classiques, une méthode innovante dite hybride est développée, visant à combiner leurs avantages respectifs : la précision des éléments finis et la rapidité de la méthode intégrale. La chaîne de calcul basée sur la méthode hybride est validée sur des calculs réalisés à partir d'un modèle similaire à une étude disponible dans la littérature. Enfin, à partir d'un banc de mesure développé lors de précédents travaux au sein du laboratoire Roberval, des mesures sont réalisées avec un écoulement d'air dans un conduit rectangulaire, en y plaçant un diaphragme. Ces mesures ont permis d'étudier l'impact de paramètres, tels que la vitesse d'écoulement de l'air et la présence ou non d'un chanfrein, sur la puissance rayonnée dans le conduit. Des calculs ont été réalisés sur les modèles de diaphragmes associés, pour calculer la puissance acoustique rayonnée et confronter les résultats de calculs aux mesures. On montre que les résultats obtenus sont comparables aux résultats de mesure.
120

Modélisation de la diffusion électromagnétique par les vagues côtières déferlantes

Khairi, Refzul 11 March 2013 (has links) (PDF)
L'objectif de ce travail de thèse est d'étudier l'interaction des ondes électromagnétiques en bande L avec les vagues côtières déferlantes, en particulier pour un observateur situé à proximité de la surface. Le travail s'attache à effectuer une modélisation électromagnétique précise en lien étroit avec le modèle hydrodynamique. Pour modéliser et calculer les champs électromagnétiques diffusés par les vagues déferlantes, nous utilisons une approche numérique par intégrale de frontière, notamment la Méthode des Moments (MdM). Dans ce cadre, nous focalisons le travail sur la problématique de la fiabilité et la convergence du calcul numérique pour des géométries de forte courbure comme peuvent l'être des surfaces de vagues déferlantes. Après une analyse approfondie de la problématique, nous montrons qu'une solution fondée sur la Méthode des Moments d'Ordre Supérieur (MdM-OS) combinée avec la technique de maillage Non Uniform Rational Basis Splines (NURBS) permet d'améliorer les performances de la méthode MdM-Classique. En parallèle du travail de modélisation électromagnétique, nous nous attachons à introduire un modèle hydrodynamique capable de simuler le plus fidèlement possible le mouvement et la déformation des vagues à proximité de la côte. Nous retenons une modélisation hydrodynamique basée sur la Méthode Désingularisée. Cette approche méthodologique nous permet d'étudier l'évolution des vagues en fonction de la pente du fond, de la hauteur relative et de la cambrure des vagues. La combinaison des résultats issus de la modélisation numérique électromagnétique et de la description hydrodynamique permettent ainsi d'évaluer l'évolution des champs électromagnétiques diffusés par les vagues côtières déferlantes en fonction du temps pour trois types de déferlement standard : glissant, plongeant et gonflant.

Page generated in 0.0639 seconds