• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 569
  • 118
  • 63
  • 10
  • 3
  • 3
  • 1
  • 1
  • 1
  • Tagged with
  • 777
  • 265
  • 121
  • 114
  • 103
  • 100
  • 91
  • 77
  • 75
  • 69
  • 68
  • 61
  • 52
  • 51
  • 50
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Application de la théorie de la perturbation des opérateurs linéaires à l'obtention de bornes d'erreurs sur les éléments propres et à leur calcul

Redont, Patrick 28 June 1979 (has links) (PDF)
Méthode d'itération pour le calcul de valeurs propres et de vecteurs propres d'opérateurs linéaires. Approximation par itération des éléments propres d'un opérateur linéaire ferme quasi décomposé par une projection de rang 1. Approximation des éléments propres d'un opérateur linéaire ferme par itération : cas général. Approximation d'un sous-espace invariant d'un opérateur linéaire par itération.
142

Les Types génériques : propositions pour un mécanisme d'abstraction dans les langages de programmation

Jacquet, Paul 25 September 1978 (has links) (PDF)
.
143

Développement de méthodes rapides pour le calcul de structures électroniques

Barrault, Maxime 12 1900 (has links) (PDF)
Cette thèse présente quelques idées pour l'accélération des calculs ab initio de systèmes physico-chimiques. Après une introduction générale aux modèles et aux méthodes faite au chapitre 1, le chapitre 2 est consacré à une présentation mathématique de la construction des pseudo-potentiels qui mènent à une réduction considérable de la taille du problème électronique. On s'intéresse ensuite au problème aux valeurs propres généralisé qui constitue l'étape limitante de la résolution du problème électronique. On propose dans le chapitre 3 une méthode de décomposition de domaine de complexité linéaire avec le nombre d'électrons du système en terme de temps CPU et d'encombrement mémoire. Cette méthode, adaptée au traitement des systèmes isolants, remédie à certaines insuffisances des méthodes existantes. Dans le même esprit, le chapitre 4 est dédié à une tentative d'adaptation des méthodes dites de projection pour le traitement des gros systèmes métalliques. Un autre problème est abordé au chapitre 5. Il s'agit de l'application de la méthode des bases réduites au problème électronique. Dans un premier temps, des résultats montrant la faisabilité de l'approche ont été obtenus sur les systèmes H2+ et H2 où la base de discrétisation pour la résolution du problème électronique dépend de la position des noyaux, paramètres du système. Dans un second temps, une adaptation de la méthode des bases réduites pour traiter un problème non linéaire est présentée. Le chapitre 6 présente enfin des conclusions générales sur l'ensemble des approches abordées dans la thèse, ainsi que quelques pistes pour des développements futurs.
144

Contributions à l'inférence statistique semi- et non-paramétrique

Girard, Stéphane 06 July 2004 (has links) (PDF)
Les travaux présentés s'inscrivent dans le cadre de l'inférence statistique. Ils s'articulent autour des quatre thèmes suivants : estimation de quantiles extrêmes, estimation de frontière, réduction de dimension en analyse d'images et estimation de courbes de référence. Le plupart de ces travaux sont issus de collaborations avec des industriels et s'étendent de l'étude théorique d'une méthode statistique au développement d'outils logiciels l'implémentant.
145

Valeurs spéciales de fonctions L de formes modulaires adéliques

PUYDT, Julien 19 December 2003 (has links) (PDF)
On étudie les valeurs spéciales de fonctions $L$ attachées aux formes modulaires, tordues par des caractères de Dirichlet de conducteur arbitraire. On construit des distributions à valeurs algébriques à partir de distributions à valeurs modulaires. On prouve sur ces dernières des résultats de congruence et d'admissibilité. On obtient alors les distributions scalaires en appliquant une forme linéaire, ce qui permet de montrer qu'elles vérifient elles aussi de bonnes propriétés. On établit ensuite un lien entre ces distributions scalaires et les valeurs spéciales qui nous intéressent, ce qui permet d'établir de nouvelles congruences entre elles.
146

Méthode SCHADEX de prédétermination des crues extrêmes

Garavaglia, Federico 23 February 2011 (has links) (PDF)
La méthode SCHADEX (Simulation Climato-Hydrologique pour l'Appréciation des Débits EXtrêmes) est, depuis 2007, la méthode de référence pour le calcul de la crue de projet servant au dimensionnement des évacuateurs des barrages d'EDF (Électricité De France). Cette méthode vise à estimer les quantiles extrêmes de débits par un procédé de simulation stochastique qui combine un modèle probabiliste de pluie et un modèle hydrologique pluie-débit. L'objectif principal de cette thèse est la " validation " de la méthode SCHADEX, la compréhension de ses possibilités et de ses limites, notamment par des études de sensibilité aux hypothèses sous-jacentes et par sa confrontation à la plus large gamme possible d'observations (régions et climats contrastés, taille variable de bassins versants). La première étape de ce travail a porté sur la description probabiliste des événements pluvieux générateurs de crues, avec notamment l'introduction d'une distribution des pluies observées conditionnée par type de temps (distribution MEWP, Multi-Exponential Weather Patterns). Pour valider ce modèle probabiliste, nous avons comparé ses résultats à ceux de modèles classiques de la théorie des valeurs extrêmes. En nous appuyant sur une large base de données de stations pluviométriques (478 postes localisés en France, Suisse et Espagne) et sur une technique de comparaison orientée vers les valeurs extrêmes, nous avons évalué les performances du modèle MEWP en soulignant la justesse et la robustesse de ses estimations. Le procédé de simulation hydrologique des volumes écoulés suite à des événements pluvieux intenses (processus de simulation semi-continue) a été décrit en soulignant son caractère original et parcimonieux du point de vue des hypothèses d'extrapolation nécessaires, et sa capacité à extraire le maximum d'information des séries chronologiques traitées. En nous appuyant sur une base de données de 32 bassins versants, nous avons analysé la sensibilité de cette méthode (i) à ses paramètres de simulation (i.e. nombre de tirages, etc.), (ii) au modèle probabiliste de pluie et (iii) au modèle hydrologique pluie-débit. Cette étude nous a permis de figer certains paramètres de simulation et surtout de hiérarchiser les étapes et les options de simulation du point de vue de leurs impacts sur le résultat final. Le passage des quantiles extrêmes de volumes à ceux des débits de pointe est réalisé par un facteur multiplicatif (coefficient de forme), identifié sur une collection d'hydrogrammes. Une sélection de ces hydrogrammes par une approche semi-automatique, basée sur une technique d'échantillonnage sup-seuil, a été développée. Globalement, ce travail a permis de reformuler, justifier et vérifier les hypothèses de base de la méthode, notamment celles liées à l'aléa pluviométrique ainsi qu'à l'aléa " état hydrique " du bassin versant, et celles liées au procédé de simulation hydrologique semi-continue des écoulements. Des améliorations et des simplifications de certains points de la méthode ont aussi été proposées pour des estimations de débit extrêmes plus fiables et robustes. Une adaptation de la classification des journées par type de temps a été proposée pour étendre le calendrier de référence, de 1953-2005 à 1850-2003, en exploitant des informations simplifiées sur les champs de pression. La procédure de simulation hydrologique a été améliorée, notamment en conditionnant le tirage des épisodes pluvieux au type de temps, ce qui permet de mieux prendre en compte la dépendance pluie- température. Ces travaux ne mettent certainement pas un point final au développement de la méthode SCHADEX mais la fondent sur des bases méthodologiques saines et documentées. Ils proposent des perspectives de recherche sur des thématiques variées (e.g. prise en compte de variabilité de la forme des hydrogrammes de crue pour le passage au débit de pointe, modélisation hydrologique, estimation de crues extrêmes en bassins non jaugés ou en contexte non-stationnaire).
147

Contributions à la théorie des valeurs extrêmes et à la réduction de dimension pour la régression

Gardes, Laurent 17 November 2010 (has links) (PDF)
Ce mémoire résume mes travaux de recherche portant sur les trois thèmes suivants : inférence pour les lois à queue de type Weibull, estimation de quantiles extrêmes conditionnels et réduction de dimension pour la régression. Dans le cadre du premier thème, nous avons proposé de nombreux estimateurs du paramètre de forme et de quantiles extrêmes pour des lois à queue de type Weibull. Leurs propriétés théoriques ont aussi été étudiées. Les deuxième et troisième thèmatiques ont pour point de départ une application concrête respectivement l'estimation de niveaux de retour de pluies et l'étude d'images hyperspectrales Martienne. D'un point de vue théorique, nous avons proposé et étudié, dans le cadre du deuxième thème, des estimateurs de quantiles extrêmes conditionnels. Au sein du troisième thème, nous avons proposé une méthode de régularisation pour la régression inverse par tranches (SIR).
148

Les déterminismes biologiques. Analyse des conceptions et des changements conceptuels consécutifs à un enseignement sur l'épigenèse cérébrale chez des enseignants et des apprenants tunisiens.

Kochkar, Mohamed 16 February 2007 (has links) (PDF)
Dans un premier temps, nous avons analysé les conceptions de 275 enseignants tunisiens et identifié en quoi certaines de ces conceptions pourraient être des obstacles aux apprentissages. Une conception anatomisante du cerveau pourrait s'opposer à sa conception en termes de réseaux neuronaux. Mettre le cerveau aux commandes de tout le corps, avec un relent de dualisme corps esprit, empêche de penser son épigenèse et sa construction en fonction de son activité propre ; il en est de même pour une conception d'un déterminisme purement génétique ou purement environnementale de nos comportements. Jusqu'à quel point ces obstacles ne dépendent-ils que d'un manque de connaissances, en particulier sur les réseaux neuronaux et l'épigenèse cérébrale ? Pour répondre à cette question, nous avons analysé les conceptions d'élèves (1an avant le bac) et d'enseignants (inscrits en DEA didactique ou autres) avant et après un enseignement sur l'épigenèse (trois situations d'enseignement, dont une en visioconférence). Les résultats de cette seconde partie de la thèse confirment que ces conceptions peuvent évoluer à la suite d'un enseignement.
149

Contribution à une étude des transformations de la fonction ressources humaines et de la culture organisationnelle dans un contexte de fusion-acquisition: Approche par l'analyse des normes et des représentations des acteurs sociaux (Cas de Fortis Banque)

Outmane, Said S 29 June 2009 (has links)
Les changements qui caractérisent le secteur bancaire belge par le processus des fusions-acquisitions constituent un point de départ de notre recherche. Cet environnement mouvant dans lequel se situent les banques, est contraignant et les force à chercher de nouveaux modes d’adaptations sur tous les plans, technique, gestionnaire, organisationnel et humain. Cette recherche s’est consacrée à une réflexion sur la normalisation des organisations et à l’étude de la problématique de la normalisation comme instrument de régulation. En particulier, il s’agit de s’interroger sur les mécanismes d’ajustements tels que la normalisation et la régulation d’une organisation issue d’une fusion bancaire. Nous nous intéressons principalement aux ajustements relatifs aux pratiques de gestion des ressources humaines et aux transformations des cultures organisationnelles. Ainsi, l’objectif principal que nous nous étions assigné dans cette étude consistait à appréhender le processus de transformation du système de gestion des ressources humaines et de cerner les mutations de la culture d’une entreprise, inscrite dans une problématique de modernisation et de changement organisationnel. Il s’agissait, en particulier, d’étudier en profondeur le cas la C.G.E.R. et la Générale de Banque, ayant fusionnées en vue de la création d’une entité unique : la Fortis Banque et de s’interroger sur les rôles de normalisation et de régulation qu’avait cette dernière. Nous nous sommes attachés, tout d’abord dans la première partie, à expliciter l’histoire de deux banques – C.G.E.R. et Générale de Banque – ayant donné naissance à Fortis Banque. Nous avons essayé de mettre en exergue les différentes étapes de leur développement depuis leur origine jusqu’à leur fusion, en reprenant les grands événements ayant jalonné leur histoire et ayant joué, directement ou indirectement, un rôle dans leur transformation au fil du temps : les évolutions économiques, les transformations socio-organisationnelles, les réformes structurelles, les modifications au sein du top management, les périodes de crises, les tentatives de réforme qui s’y sont succédées, les routines de comportement qui s’y sont cristallisées, etc. Et pour compléter cette perspective historique, nous avons mobilisé concepts et théories développés dans d’autres champs notamment la théorie des représentations sociales, l’approche par les normes. Nous avons souhaité montrer l’utilité des recherches sur les représentations sociales et les normes sociales pour le management interculturel. De point de vue empirique ou le plan d’application, cette étude a permis de savoir de quelle manière les représentations collectives propres à chacune des deux organisations étudiées se comparaient. La mise en commun de ces deux banques fusionnées a révélé des différences majeures dans leur contexte et dans leur fonctionnement interne, ce qui laissait présager d’entrée en jeu, une intégration difficile. D’abord, afin de rendre compte des perceptions des acteurs par rapport à des pratiques de gestion (dont la GRH), nous avons défini un ensemble de questions qui portent sur les représentations que les individus sont amenés à exprimer au sujet du rôle de la gestion des ressources humaines aux travers un ensemble de dimensions. Ces dernières sont rapportées à plusieurs rôles assignés à la GRH : rôle stratégique et d’innovation, rôle de médiation normative, rôle de maintien des règles et rôle de soutien des personnes. Nos résultats ont mis en exergue un écart entre les trois catégories de sujets retenues - Ex-C.G.E.R., Ex-Générale de Banque et Nouveaux Fortis -, dans leurs représentations sociales des pratiques de gestion des ressources humaines et ont montré l’existence dans l’entreprise des sous-groupes, aux pratiques hétérogènes. Étant donné que c’est la diversité des individus dans l’organisation qui nous a intéressée, nous avons jugé préférable que le regroupement entre ces individus se fasse en fonction de leur communauté de représentation. L'objectif consistait en la compréhension différentielle conjointe des représentations des acteurs. En effet, l’étude a fait ressortir les représentations ambivalentes des acteurs concernés face au changement mis en œuvre au sein de la banque étudiée.
150

Estimation non-paramétrique des quantiles extrêmes conditionnels

Lekina, Alexandre 13 October 2010 (has links) (PDF)
L'objectif de ce travail est de proposer de nouveaux estimateurs de quantiles extrêmes dans le cadre conditionnel c'est-à-dire dans la situation où la variable d'intérêt Y, supposée aléatoire et réelle, est mesurée simultanément avec une covariable X. Pour ce faire, nous nous intéressons à l'étude des valeurs extrêmes d'un échantillon d'observations indépendantes dont la loi conditionnelle de Y en un point x de la covariable X est à " queue lourde ". Selon la nature de la covariable, nous considérons deux situations. Primo, lorsque la covariable est déterministe et de dimension finie ou infinie (i.e covariable fonctionnelle), nous proposons d'estimer les quantiles extrêmes par la méthode dite de la " fenêtre mobile ". La loi limite des estimateurs ainsi construits est ensuite donnée en fonction de la vitesse de convergence de l'ordre du quantile vers un. Secundo, lorsque la covariable est aléatoire et de dimension finie, nous montrons que sous certaines conditions, il est possible d'estimer les quantiles extrêmes conditionnels au moyen d'un estimateur à " noyau " de la fonction de survie conditionnelle. Ce résultat nous permet d'introduire deux versions lisses de l'estimateur de l'indice de queue conditionnel indispensable lorsque l'on veut extrapoler. Nous établissons la loi asymptotique de ces estimateurs. Par ailleurs, nous considérons le cas sans covariable (non conditionnel) lorsque la fonction de répartition est à " queue lourde ". Nous proposons et étudions un nouvel estimateur des quantiles extrêmes. Afin d'apprécier le comportement de nos nouveaux outils statistiques, des résultats sur simulation ainsi que sur des données réelles sont présentés.

Page generated in 0.0661 seconds