• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 136
  • 37
  • 17
  • 1
  • Tagged with
  • 194
  • 74
  • 46
  • 27
  • 21
  • 21
  • 21
  • 19
  • 17
  • 17
  • 14
  • 13
  • 13
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Correspondance de Jacquet-Langlands et distinction / Jacquet-Langlands correspondence and distinguishness

Coniglio-Guilloton, Charlène 11 July 2014 (has links)
Soit K/F une extension quadratique modérément ramifiée de corps locaux non archimédiens. Soit GLm (D) une forme intérieure de GLn (F) et GLμ (∆) = (Mm (D) ⊗ K)× . Alors GLμ (∆) est une forme intérieure de GLn (K), les quotients GLμ (∆)/GLm (D) et GLn (K)/GLn (F) sont des espaces symétriques. En utilisant la paramétrisation de Silberger et Zink, nous déterminons des critères de GLm (D)-distinction pour les cuspidales de niveau 0 de GLμ (∆), puis nous prouvons qu’une cuspidale de niveau 0 de GLn (K) est GLn (F)-distinguée si et seulement si son image par la correspondance de Jacquet-Langlands est GLm (D)-distinguée. Puis, dans le cas particulier où μ = 2 et m = 1, nous regardons le cas des séries discrètes de niveau 0 non cuspidales, en utilisant le système de coefficients sur l’immeuble associé à la représentation, donné par Schneider et Stuhler. / Let K/F be a tamely ramified quadratic extension of non-archimedean locally compact fields. Let GLm (D) be an inner form of GLn (F) and GLμ (∆) = (Mm (D)⊗K)× . Then GLμ (∆) is an inner form of GLn (K), the quotients GLμ (∆)/GLm (D) and GLn (K)/GLn (F) are symmetric spaces. Using the parametrization of Silberger and Zink, we determine conditions of GLm (D)-distinction for level zero cuspidal representations of GLμ (∆). We also show that a level zero cuspidal representation of GLn (K) is GLn (F)-distinguished if and only if its image by the Jacquet-Langlands correspondence is GLm (D)-distinguished. Then, we treat the case of level zero non supercuspidal representations when μ = 2 and m = 1 using the coefficient system of the Bruhat-Tits building associated to the representation by Schneider and Stuhler.
142

Constitution de référentiels géochimiques locaux pour les sols et proches sous-sols urbains : de la base de données à l'interprétation géostatistique / Constitution of local geochemical references for urban soils and subsoils : from database to geostatistical interpretation

Sauvaget, Baptiste 28 March 2019 (has links)
Les grands réaménagements urbains génèrent d’importants volumes de terres excavées, dont la valorisation est désormais possible si elles sont compatibles avec le fond pédo-géochimique du site receveur. Afin de faciliter cette valorisation, cette thèse s’intéresse à des méthodologies de traitement de données acquises à d'autres fins que la détermination du fond pédo-géochimique, afin de fournir un référentiel de qualité géochimique des sols urbains à l'échelle d'un quartier ou d'une ville. Les premiers tests montrent les limites des calculs statistiques, usuellement utilisés avec des données dédiées au fond pédo-géochimique du fait de leur sensibilité à la limite de quantification, à la loi de distribution ou encore au pourcentage d'anomalie. Le découpage du territoire en entités géographiques cohérentes à partir de la nature des sols et sous-sols et des pressions anthropiques (actuelles ou passées) permet la constitution de différents niveaux de fond suivant la qualité géochimique des sols, mais une des difficultés concerne le renseignement de l'ensemble des entités. La classification statistique des échantillons, même spatialisée, n'apporte, actuellement pas de résultats exploitables pour la gestion des terres excavées. Enfin, le filtrage géostatistique via un modèle linéaire de corégionalisation présente une alternative solide pour le filtrage des anomalies et l'estimation du fond à l'échelle d'un quartier. / Large urban redevelopments generate large volumes of excavated soils whose reusability is now possible if they are compatible with the pedo-geochemical background of the receiving site. In order to facilitate this valorization, this thesis focuses on processing methodologies on data acquired for other purposes than the determination of the pedo-geochemical background, in order to provide a geochemical quality reference system for urban soils at the scale of one neighborhood or city. The first tests show the limits of the statistical stresholds, usually used with data dedicated to the pedo-geochemical background because of their sensitivity to the limit of quantification, to the distribution law or to the percentage of anomaly. The segmentation of the territory into coherent geographical entities based on the nature of the soil and subsoil and the anthropogenic pressures (current or past) allows the constitution of different geochemical background levels according to the geochemical quality of the soils, but one of the difficulties concerns the information of all entities. The statistical classification of the samples, even if spatialized, does not currently provide usable results for the management of the excavated earth. Lastly, geostatistical filtering via a linear model of coregionalisation provides a solid alternative for anomaly filtering and background estimation at a neighborhood scale.
143

Prévision des crues rapides avec des modèles hydrologiques globaux. Applications aux bassins opérationnels de la Loire supérieure : évaluation des modélisations, prise en compte des incertitudes sur les précipitations moyennes spatiales et utilisation de prévisions météorologiques.

Moulin, Laetitia 07 December 2007 (has links) (PDF)
Ce travail propose d'évaluer, dans le cas des bassins versants de la Loire supérieure, l'intérêt de modèles pluie-débit globaux pour la prévision opérationnelle des crues rapides.<br /><br />Après une description du bassin à Bas-en-Basset, l'analyse critique des jeux de données disponibles met en évidence leur richesse, mais aussi leurs défauts. La grande variété des événements hydrométéorologiques touchant ces bassins apparaît particulièrement intéressante pour comparer des modèles hydrologiques.<br /><br />Des modèles conceptuels simples sont apparus plus robustes et souvent plus performants que des modèles statistiques ou des réseaux de neurones artificiels. Des critères spécifiques à la prévision des crues mettent en évidence les informations sur l'évolution immédiate des débits apportées par la transformation de la pluie en débit, même si les erreurs de modélisation restent importantes et finalement proches d'un modèle à l'autre.<br /><br />Un effort particulier a été porté sur l'estimation par krigeage des précipitations moyennes spatiales, pour lesquelles un modèle d'erreur est proposé et validé sur les données. Ces incertitudes, propagées dans les modèles pluie-débit, contribuent, selon la taille des bassins, à une part variable de l'erreur totale de modélisation.<br /><br />Enfin un travail exploratoire a montré l'intérêt d'inclure des prévisions de pluies probabilisées dans une chaîne hydrométéorologique, pour augmenter les délais d'anticipation et prendre en compte les incertitudes associées. Toutefois, la disponibilité de ces prévisions impose des traitements préalables à leur utilisation.<br /><br />Il ressort que des outils simples peuvent laisser envisager des améliorations dans ce domaine encore très perfectible de la prévision des crues.
144

Contribution à la conception optimale et la commande de systèmes mécatroniques flexibles à actionnement piézoélectrique intégré. Application en microrobotique.

Grossard, Mathieu 26 November 2008 (has links) (PDF)
Lorsqu'on applique une réduction d'échelle aux systèmes mécatroniques habituellement rencontr és dans le macromonde, la miniaturisation n'est possible que si elle est accompagnée d'une intégration fonctionnelle de ces systèmes. Cette tendance générale pousse les microsystèmes à posséder une densité fonctionnelle de plus en plus importante, qui les fait converger progressivement vers le concept d'adaptronique. L'objectif de cette thèse est de développer une nouvelle méthode de synthèse optimale de structures flexibles monolithiques, pour permettre la conception d'actionneurs intégrés. Notre méthode de synthèse est basée sur l'agencement optimal de blocs flexibles élémentaires grâce à un algorithme génétique multi-critères. Ces blocs flexibles sont de type treillis de poutres et décrits par une méthode aux éléments finis. Ils peuvent être passifs ou rendus actifs par effet piézoélectrique inverse, permettant ainsi l'intégration de la fonction d'actionnement au sein même de la structure du mécanisme. En outre, une représentation dynamique du comportement entrée(s)-sortie(s) de ces mécanismes flexibles permet la prise en compte dans la méthode d'optimisation, dès la phase amont de conception, de nouvelles spécifications permettant de garantir certaines performances lors de la commande ultérieure des systèmes ainsi synthétisés. Enfin, un prototype de micropince piézoélectrique monolithique est conçu de manière optimale grâce à l'outil logiciel développé : les tests expérimentaux effectués permettent de valider la démarche de conception mécatronique dans son ensemble, depuis l'étape amont de l'étude complète de sa topologie, jusqu'à l'étape finale de sa commande robuste en boucle fermée.
145

Comportements Asymptotiques des Processus Stationnaires et des Processus Empiriques dans des Systèmes Dynamiques

Durieu, Olivier 01 December 2008 (has links) (PDF)
Cette thèse se consacre à l'étude de théorèmes limites pour des suites de variables aléatoires stationnaires (en particulier issues d'un système dynamique). Nous nous concentrons sur deux résultats importants, notamment par leurs applications en statistiques. Nous étudions tout d'abord le comportement limite des sommes de variables aléatoires, plus précisément le théorème limite central et son principe d'invariance. Ensuite nous considérons le principe d'invariance pour les processus empiriques.<br />Dans le cadre du principe d'invariance faible de Donsker, plusieurs résultats s'obtiennent au travers d'approximations par des martingales et plus généralement par des critères projectifs. Nous comparons quatre de ces critères et montrons leur indépendance mutuelle. Les critères étudiés sont la décomposition martingale-cobord (Gordin, 1969), la condition de Hannan (1979), le critère de Dedecker et Rio (2000) et<br />la condition de Maxwell et Woodroofe (2000).<br />En ce qui concerne le comportement asymptotique des processus empiriques, nous établissons un principe d'invariance dans le cas des automorphismes du tore. Cela permet de sortir du cadre hyperbolique connu et d'obtenir un premier résultat pour une transformation partiellement hyperbolique.<br />Nous proposons également une nouvelle approche, basée sur des méthodes d'opérateurs, permettant d'établir un principe d'invariance empirique. Cette méthode s'applique en particulier aux cas où l'on a de bonnes propriétés pour une classe de fonctions ne contenant pas les fonctions indicatrices. C'est en particulier le cas de certains systèmes dynamiques dont l'opérateur de transfert admet un trou spectral.<br />En dernier lieu, suivant une question de Burton et Denker (1987), nous nous intéressons à la classe des processus pour lesquels le théorème limite central a lieu. En référence au cadre des processus empiriques, nous étudions en particulier les suites de sommes partielles des itérées d'une fonction indicatrice.
146

Différents aspects de la physique nucléaire depuis les basses énergies jusqu'aux énergies intermédiaires

Lallouet, Yoann 19 December 2011 (has links) (PDF)
Cette thèse porte sur l'étude de différents aspects de la physique nucléaire depuis les basses énergies jusqu'aux énergies intermédiaires. Pour les basses énergies, où la matière nucléaire est essentiellement constituée de nucléons en interaction, la partie I traite de la fusion-fission des noyaux super-lourds, et la partie II des règles de somme associées aux interactions de type Skyrme. Pour les énergies intermédiaires, la matière nucléaire étant alors considérée comme une phase hadronique principalement constituée de pions, la partie III se focalise sur l'hydrodynamique relativiste de la matière nucléaire avec brisure spontanée de symétrie chirale. Dans la partie I, on s'intéresse à la formation puis à la désexcitation des noyaux super-lourds. On étudie donc la formation du noyau composé avec effets de mémoire. Pour la désexcitation d'un noyau super-lourd, l'existence d'un puits isomérique dans la barrière de potentiel change la dynamique de désexcitation et augmente les temps de fission. Cette dernière étude pourrait être utile à l'étude de la dynamique de la fission des actinides. Dans la partie II, les règles de somme M1 et M3 associées aux potentiels phénoménologiques de type Skyrme sont calculées à partir de leurs définitions intrinsèques. On détermine alors M1 jusqu'au niveau tensoriel et M3 avec potentiel central. Dans la partie III, pour le traitement hydrodynamique de la matière hadronique appliqué aux collisions d'ions lourds on peut, en première approximation, écarter les modifications induites par la brisure spontanée de symétrie chirale mais pas celles dues à l'aspect dissipatif.
147

Résolution par des méthodes de point intérieur de problèmes de programmation convexe posés par l’analyse limite.

PASTOR, Franck 26 October 2007 (has links)
Résumé Nous présentons en premier lieu dans ce travail les principales notions de la théorie de l'Analyse Limite (AL) — ou théorie des charges limites — en mécanique. Puis nous proposons une méthode de point intérieur destinée à résoudre des problèmes de programmation convexe posés par la méthode statique de l'AL, en vue d'obtenir des bornes inférieures de la charge limite (ou de ruine) d'un système mécanique. Les principales caractéristiques de cette méthode de point intérieur sont exposées en détail, et particulièrement son itération type. En second lieu, nous exposons l'application de cet algorithme sur un problème concret d'analyse limite, sur une large gamme de tailles numériques, et nous comparons pour validation les résultats obtenus avec ceux déjà existants ainsi qu'avec ceux calculés à partir de versions linéarisées du problème statique. Nous analysons également les résultats obtenus pour des problèmes classiques avec matériaux de Gurson, pour lesquels la linéarisation ou la programmation conique ne s'applique pas. La deuxième partie de cet ouvrage a trait à la méthode cinématique de l'analyse limite, qui, elle, s'occupe de fournir des bornes supérieures des charges limites. En premier lieu, nous traitons de l'équivalence entre la méthode cinématique classique et la méthode cinématique mixe, en partant d'une l'approche variationnelle fournie précédemment par Radenkovic et Nguyen. Ensuite, prenant en compte les exigences particulières aux formulations numériques, nous présentons une méthode mixte originale, parfaitement cinématique, utilisant aussi bien des champs de vitesses linéaires que quadratiques, continus ou discontinus. Son modus operandi pratique est tiré de l'analyse des conditions d'optimalité de Karush, Kuhn et Tucker, fournissant par là un exemple significatif d'interaction fructueuse entre la mécanique et la programmation mathématique. La méthode est testée sur des problèmes classiques avec les critères de plasticité de von Mises/Tresca et Gurson. Ces test démontrent l'efficacité remarquable de cette méthode mixte — qui par ailleurs n'utilise que le critère de plasticité comme information sur le matériau — et sa robustesse, laquelle s'avère même supérieure à celle de codes commerciaux récents de programmation conique. Enfin, nous présentons une approche de décomposition, elle aussi originale, des problèmes de bornes supérieures en analyse limite. Cette approche est basée à la fois sur la méthode cinématique mixte et l'algorithme de point intérieur précédents, et elle est conçue pour utiliser jusqu'à des champs de vitesse quadratiques discontinus. Détaillée dans le cas de la déformation plane, cette approche apparaît très rapidement convergente, ainsi que nous le vérifions sur le problème du barreau comprimé de von Mises/Tresca dans le cas de champs de vitesse linéaires continus. Puis elle est appliquée, dans le cas de champs quadratiques discontinus, au problème classique de la stabilité du talus vertical de Tresca, avec des résultats particulièrement remarquables puisqu'ils améliorent nettement les solutions cinématiques connues jusqu'à présent dans la littérature sur le sujet. Cette caractéristique de forte convergence qualifie particulièrement cette méthode de décomposition comme algorithme de base pour une parallélisation directe— ou récursive — de l'approche par éléments finis de l'analyse limite. Abstract Firstly, the main notions of the theory of Limit analysis (LA) in Mechanics —or collapse load theory – is presented. Then is proposed an Interior Point method to solve convex programming problems raised by the static method of LA, in order to obtain lower bounds to the collapse (or limit) load of a mechanical system. We explain the main features of this Interior Point method, describing in particular its typical iteration. Secondly, we show and analyze the results of its application to a practical Limit Analysis problem, for a wide range of sizes, and we compare them for validation with existing results and with those of linearized versions of the static problem. Classical problems are also analyzed for Gurson materials to which linearization or conic programming does not apply. The second part of this work focuses on the kinematical method of Limit Analysis, aiming this time to provide upper bounds on collapse loads. In a first step, we detail the equivalence between the classical an general mixed approaches, starting from an earlier variational approach of Radenkovic and Nguyen. In a second step, keeping in mind numerical formulation requirements, an original purely kinematical mixed method—using linear or quadratic, continuous or discontinuous velocity fields as virtual variables—is proposed. Its practical modus operandi is deduced from the Karush-Kuhn-Tucker optimality conditions, providing an example of crossfertilization between mechanics and mathematical programming. The method is tested on classical problems for von Mises/tresca and Gurson plasticity criteria. Using only the yield criterion as material data, it appears very efficient and robust, even more reliable than recent conic commercial codes. Furthermore, both static and kinematic present approaches give rise to the first solutions of problem for homogeneous Gurson materials. Finally, an original decomposition approach of the upper bound method of limit analysis is proposed. It is based on both previous kinematical approach and interior point solver, using up to discontinuous quadratic velocity. Detailed in plane strain, this method appears very rapidly convergent, as verified in the von Mises/Tresca compressed bar problem in the linear continuous velocity case. Then the method is applied, using discontinuous quadratic velocity fields, to the classical problem of the stability of a Tresca vertical cut, with very significant results as they notably improved the kinematical solutions of the literature. Moreover its strong convergence qualifies this decomposition scheme as a suitable algorithm for a direct—or recursive—parallelization of the LA finite element approach.
148

La culture du vin dans la littérature italienne du Moyen Âge tardif au début des Temps Modernes. Critères de qualité, systèmes de représentation et identités.

Grappe, Yann 19 October 2009 (has links)
Cette étude entend rechercher les traces d'une culture gastronomique du vin dans la littérature italienne sur la période à cheval entre l'époque médiévale et les Temps modernes. La littérature, lorsqu'on lui applique une critique appropriée, est en mesure de fournir à l'historien des informations ponctuelles sur la culture du vin. Elle permet également de mettre en lumière le regard porté par les hommes sur cet objet chargé de significations. Dans le cadre de cette étude, la gastronomie ne sera pas considérée comme une notion vague, voire anecdotique mais comme un phénomène culturel qui place l'homme en relation avec les différentes réalités alimentaires, sensorielles et hédoniques. À quoi tient la qualité d'un vin ? Cette question simple présente l'avantage d'ouvrir une large perspective de recherche historique et anthropologique. Pister les critères de qualité d'un vin pour les hommes d'une autre culture et d'un autre temps c'est aussi comprendre la manière dont ils ont cherché à représenter cet objet. Ce système de représentation révèle la pensée et l'imaginaire des hommes, en même temps qu'il dévoile les valeurs, les identités et les structures socio-économiques d'une société.
149

Algorithmes d'optimisation de critères pénalisés pour la restauration d'images. Application à la déconvolution de trains d'impulsions en imagerie ultrasonore.

Labat, Christian 11 December 2006 (has links) (PDF)
La solution de nombreux problèmes de restauration et de reconstruction d'images se ramène à celle de la minimisation d'un critère pénalisé qui prend en compte conjointement les observations et les informations préalables. Ce travail de thèse s'intéresse à la minimisation des critères pénalisés préservant les discontinuités des images. Nous discutons des aspects algorithmiques dans le cas de problèmes de grande taille. Il est possible de tirer parti de la structure des critères pénalisés pour la mise en oeuvre algorithmique du problème de minimisation. Ainsi, des algorithmes d'optimisation semi-quadratiques (SQ) convergents exploitant la forme analytique des critères pénalisés ont été utilisés. Cependant, ces algorithmes SQ sont généralement lourds à manipuler pour les problèmes de grande taille. L'utilisation de versions approchées des algorithmes SQ a alors été proposée. On peut également envisager d'employer des algorithmes du gradient conjugué non linéaire GCNL+SQ1D utilisant une approche SQ scalaire pour la recherche du pas. En revanche, plusieurs questions liées à la convergence de ces différentes structures algorithmiques sont restées sans réponses jusqu'à présent. Nos contributions consistent à:<br />- Démontrer la convergence des algorithmes SQ approchés et GCNL+SQ1D.<br />- Etablir des liens forts entre les algorithmes SQ approchés et GCNL+SQ1D. <br />- Illustrer expérimentalement en déconvolution d'images le fait que les algorithmes SQ approchés et GCNL+SQ1D sont préférables aux algorithmes SQ exacts.<br />- Appliquer l'approche pénalisée à un problème de déconvolution d'images en contrôle non destructif par ultrasons.
150

Estimation de la structure de morceaux de musique par analyse multi-critères et contrainte de régularité

Sargent, Gabriel 21 February 2013 (has links) (PDF)
Les récentes évolutions des technologies de l'information et de la communication font qu'il est aujourd'hui facile de consulter des catalogues de morceaux de musique conséquents. De nouvelles représentations et de nouveaux algorithmes doivent de ce fait être développés afin de disposer d'une vision représentative de ces catalogues et de naviguer avec agilité dans leurs contenus. Ceci nécessite une caractérisation efficace des morceaux de musique par l'intermédiaire de descriptions macroscopiques pertinentes. Dans cette thèse, nous nous focalisons sur l'estimation de la structure des morceaux de musique : il s'agit de produire pour chaque morceau une description de son organisation par une séquence de quelques dizaines de segments structurels, définis par leurs frontières (un instant de début et un instant de fin) et par une étiquette représentant leur contenu sonore.La notion de structure musicale peut correspondre à de multiples acceptions selon les propriétés musicales choisies et l'échelle temporelle considérée. Nous introduisons le concept de structure "sémiotique" qui permet de définir une méthodologie d'annotation couvrant un vaste ensemble de styles musicaux. La détermination des segments structurels est fondée sur l'analyse des similarités entre segments au sein du morceau, sur la cohérence de leur organisation interne (modèle "système-contraste") et sur les relations contextuelles qu'ils entretiennent les uns avec les autres. Un corpus de 383 morceaux a été annoté selon cette méthodologie et mis à disposition de la communauté scientifique.En termes de contributions algorithmiques, cette thèse se concentre en premier lieu sur l'estimation des frontières structurelles, en formulant le processus de segmentation comme l'optimisation d'un coût composé de deux termes~: le premier correspond à la caractérisation des segments structurels par des critères audio et le second reflète la régularité de la structure obtenue en référence à une "pulsation structurelle". Dans le cadre de cette formulation, nous comparons plusieurs contraintes de régularité et nous étudions la combinaison de critères audio par fusion. L'estimation des étiquettes structurelles est pour sa part abordée sous l'angle d'un processus de sélection d'automates à états finis : nous proposons un critère auto-adaptatif de sélection de modèles probabilistes que nous appliquons à une description du contenu tonal. Nous présentons également une méthode d'étiquetage des segments dérivée du modèle système-contraste.Nous évaluons différents systèmes d'estimation automatique de structure musicale basés sur ces approches dans le cadre de campagnes d'évaluation nationales et internationales (Quaero, MIREX), et nous complétons cette étude par quelques éléments de diagnostic additionnels.

Page generated in 0.0358 seconds