• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 170
  • 169
  • 146
  • 1
  • 1
  • Tagged with
  • 490
  • 490
  • 482
  • 323
  • 320
  • 55
  • 45
  • 44
  • 41
  • 38
  • 35
  • 33
  • 33
  • 32
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

AMELIORATION DE LA PRECISION ET COMPENSATION DES INCERTITUDES DES METAMODELES POUR L'APPROXIMATION DE SIMULATEURS NUMERIQUES

Picheny, Victor 15 December 2009 (has links) (PDF)
Cette thèse est consacrée à la planification et l'exploitation d'expériences numériques à l'aide de modèles de remplacement (métamodèles), et plus particulièrement à la prise en compte des incertitudes induites par l'utilisation de ces métamodèles. Dans un premier temps, différentes méthodes sont proposées pour compenser ces incertitudes en biaisant les modèles afin de limiter le risque d'erreur 'défavorable' (méthodes conservatives). Cette étude s'appuie sur des applications en mécanique des structures, et en particulier, l'optimisation d'un système soumis a des contraintes de fiabilité. Cette thèse propose également deux contributions au domaine de la planification d'expériences numériques. D'une part, une méthode a été développée pour construire des plans permettant de minimiser l'erreur du modèle dans une région cible de l'espace de conception. Enfin, nous avons proposé des résultats pour la planification optimale des calculs dans le cas de simulateurs à réponse bruitées.
22

Quasimorphismes sur les groupes de tresses et forme de Blanchfield

Bourrigan, Maxime 05 September 2013 (has links) (PDF)
En 2004, motivés par des constructions de quasimorphismes sur des groupes d'homéomorphismes et de difféomorphismes, Gambaudo et Ghys démontrèrent une formule liant les ω-signatures d'un entrelacs et les propriétés symplectiques d'une représentation du groupe de tresses.Le but de la thèse est d'étendre le résultat de Gambaudo et Ghys en termes d'un invariant algébrique associé à une tresse : la classe de Witt de sa forme de Blanchfield. Il est en effet possible de définir des invariants d'entrelacs en étudiant l'homologie des revêtements cycliques. Les groupes d'homologie et de cohomologie mis en jeu sont munis de structures de modules sur l'anneau du groupe Λ = Z[π].La forme de Blanchfield d'un entrelacs est ainsi la généralisation de la forme d'enlacement définie sur la partie de torsion du premier groupe d'homologie d'une variété fermée de dimension 3. Elle définit alors pour chaque tresse β une classe L(β) dans un groupe de Witt WT(Λ) .Théorème. Soit α et β deux tresses. On a l'égalité suivante, dans WT(Λ) : L(αβ) - L(α) - L(β) = -∂ Meyer(Burau(α), Burau(β)), où le cocycle de Meyer est maintenant défini sur le sous-groupe des éléments de GLn(Λ) préservant la forme de Squier, à valeurs dans le groupe de Witt W(Q(t)). On retrouve essentiellement le résultat original en spécifiant t = ω dans la formule précédente.
23

Corrigé de localisation dans un environment extérieur sans fil en utilisant estimation, filtrage, la prévision et des techniques de fusion : une application par wifi utilisant le terrain à base de connaissances

Alam, Muhammad Mansoor 04 November 2011 (has links) (PDF)
L'estimation de la position des noeuds de communication sans fil est un domaine de recherche très populaire au cours des dernières années. La recherche de l'estimation de l'emplacement n'est pas limitée à la communication par satellite, mais elle concerne aussi les réseaux WLAN, MANET, WSN et la communication cellulaire. En raison de la croissance et de l'évolution des architectures de communication cellulaire, l'utilisation des appareils portables a augmenté rapidement, et les appels provenant d'utilisateurs mobiles ont également rapidement augmenté. On estime que plus de 50% des appels d'urgence sont émis par des téléphones mobiles. Les chercheurs ont utilisé différentes techniques d'estimation de la position, tels que les satellites, les techniques statistiques et la cartographie. Afin d'atteindre une meilleure précision, certains chercheurs ont combiné deux ou plusieurs techniques. Cependant, l'estimation de la position basée sur le terrain est un domaine qui n'a pas été considéré en profondeur par les chercheurs. Grâce aux ondes radio qui se comportent différemment dans des atmosphères différentes, les calculs à l'aide de quelques paramètres ne sont pas suffisants pour atteindre une précision avec différents terrains, surtout quand il sont totalement basés sur le format RSS, qui entraine des altérations.Cette recherche se concentre sur la localisation des noeuds de communication sans fil en utilisant des techniques géométriques et statistiques, et en prenant en compte l'altération et l'atténuation des terrains. Le modèle proposé est constitué de quatre étapes, qui sont l'estimation, le filtrage, la prédiction et la fusion. Un prototype a été construit en utilisant le WiFi IEEE 802.11x standard. Dans la première étape, en utilisant le rapport signal-bruit de la zone géographique, la péninsule Malaisienne est classée en 13 types de terrains différents.Dans la deuxième étape, les points de données point-à-point sont enregistrés en utilisant la force du signal disponible et en recevant la puissance du signal en considérant différents types de terrains. L'estimation de la localisation se fait au cours de troisième étape en utilisant la célèbre méthode de triangulation. Les résultats estimés sont encore filtrés dans la quatrième étape en utilisant la moyenne et la moyenne des moyennes. Pour la correction des erreurs, le filtrage de l'emplacement est également fait en utilisant la règle des plus proches voisins. La prédiction est affinée au cours de la cinquième étape en utilisant la variance combinée qui permet de prédire la région considérée. L'utilisation des régions d'intérêt contribue à éliminer les emplacements situés à l'extérieur de la zone sélectionnée. Au cours de la sixième étape, les résultats du filtrage sont fusionnés avec la prédiction afin d'obtenir une meilleure précision.Les résultats montrent que les recherches effectuées permettent de réduire les erreurs de 18 m à 6 m dans des terrains fortement atténués, et de 3,5 m à 0,5 m dans des terrains faiblement atténués.
24

Paires annihilantes en analyse harmonique

Ghobber, Saifallah 08 December 2011 (has links) (PDF)
Cette thèse porte sur l'étude de certains aspects du principe d'incertitude en analyse harmonique.Historiquement le principe d'incertitude fut énoncé en 1927 par Heisenberg qui a montré unepropriété fondamentale de la mécanique quantique qui dit qu'il est impossible de mesurer, avecprécision, à la fois la position et la vitesse d'une particule. Le but de cette thèse est d'étendre certainsrésultats concernant les paires annihilantes à deux contextes.Dans la première partie nous étendons le principe d'incertitude local et les principes d'incertitudede Benedicks-Amrein-Berthier, de Shubin-Vakilian-Wolff et de Logvinenko-Sereda pour latransformée de Fourier-Bessel. Ces principes font qu'on ne peut pas localiser aussi précisémentqu'on le veut une fonction et sa transformée de Fourier-Bessel.Dans la deuxième partie, nous abordons les principes d'incertitude dans le cadre discret fini, dontl'intérêt a été renouvelé par la théorie de "l'échantillonnage comprimée" qui est plus connue sous levocable anglo-saxon du "compresseve sensing". Le thème général de ce travail est l'étude desprincipes d'incertitude qualitatifs et quantitatifs pour la transformée de Fourier discrète/ discrète à fenêtre.
25

Les aspects mathématiques des mod'eles de marchés financiers avec coûts de transaction

Grepat, Julien 16 October 2013 (has links) (PDF)
Les marchés financiers occupent une place prépondérante dans l'économie. La future évolution des législations dans le domaine de la finance mondiale va rendre inévitable l'introduction de frictions pour éviter les mouvements spéculatifs des capitaux, toujours menaçants d'une crise. C'est pourquoi nous nous intéressons principalement, ici, aux modèles de marchés financiers avec coûts de transaction.Cette thèse se compose de trois chapitres. Le premier établit un critère d'absence d'opportunité d'arbitrage donnant l'existence de systèmes de prix consistants, i.e. martingales évoluant dans le cône dual positif exprimé en unités physiques, pour une famille de modèles de marchés financiers en temps continu avec petits coûts de transaction.Dans le deuxième chapitre, nous montrons la convergence des ensembles de sur-réplication d'une option européenne dans le cadre de la convergence topologique des ensembles. Dans des modèles multidimensionnels avec coûts de transaction décroissants a l'ordre n−1/2, nous donnons une description de l'ensemble limite pour des modèles particuliers et en déduisons des inclusions pour les modèles généraux (modèles de KABANOV). Le troisième chapitre est dédié a l'approximation du prix d'options européennes pour des modèles avec diffusion très générale (sans coûts de transaction). Nous étudions les propriétés des pay-offs pour pouvoir utiliser au mieux l'approximation du processus de prix du sous-jacent par un processus intuitif défini par récurrence grâce aux itérations de PICARD
26

An Experimental Study of Student Progress in General Mathematics

Christian, Jewel Morris January 1947 (has links)
The purpose of this investigation is to make an experimental study of the compiled data obtained from the results of three standardized tests that were administered to two groups of general mathematics students during one semester; and to determine, if possible, by the scores, whether the prescribed course in mathematics makes for any significant increases, or losses in student progress.
27

Solvabilité 2 : une réelle avancée ?

Derien, Anthony 30 September 2010 (has links) (PDF)
Les futures normes de solvabilité pour l'industrie de l'assurance, Solvabilité 2, ont pour buts d'améliorer la gestion des risques au travers de l'identification de différentes classes et modules de risque, et en autorisant les compagnies à utiliser des modèles internes pour estimer leur capital réglementaire. La formule standard définit ce capital comme étant égal à une VaR à 99.5% sur un horizon d'un an pour chaque module de risque. Puis, à chaque niveau de consolidation intermédiaire, les différentes VaR sont agrégées au travers d'une matrice de corrélation. Plusieurs problèmes apparaissent avec cette méthode : - Le régulateur utilise le terme de "VaR" sans communiquer de distributions marginales ni globale. Cette mesure de risque multi-variée n'est pertinente que si chaque risque suit une distribution normale. - L'horizon temporel à un an ne correspond pas à celui des engagements d'une compagnie d'assurance, et pose des problèmes d'es lors qu'il faut déterminer la fréquence de mises à jour des modèles internes. - La structure de dépendance proposée par la formule standard ne correspond pas à celle habituellement mise en place par les compagnies et est difficilement utilisable dans un modèle interne. La première partie présentera en détail les points clés de la réforme et donnera des axes de réflexion sur son application dans la gestion des risques. Dans une deuxième partie, il sera montré que cette mesure de risque multi-variée ne satisfait pas aux principaux axiomes d'une mesure de risque. De plus, elle ne permet pas de comparer les exigences de capital entre compagnies, puisqu'elle n'est pas universelle. La troisième partie démontrera que pour évaluer un capital à un point intermédiaire avant l'échéance, une mesure de risque doit pouvoir s'ajuster à différentes périodes, et donc être multi-périodique. Enfin, la quatrième partie mettra l'accent sur une alternative à la matrice de corrélation pour modéliser la dépendance, à savoir les copules.
28

Statistical genetic analysis of infectious disease (malaria) phenotypes from a longitudinal study in a population with significant familial relationships

Loucoubar, Cheikh 21 March 2012 (has links) (PDF)
Long term longitudinal surveys have the advantage to enable several sampling of the studied phenomena and then, with the repeated measures obtained, find a confirmed tendency. However, these long term surveys generate large epidemiological datasets including more sources of noise than normal datasets (e.g. one single measure per observation unit) and potential correlation in the measured values. Here, we studied data from a long-term epidemiological and genetic survey of malaria disease in two family-based cohorts in Senegal, followed for 19 years (1990-2008) in Dielmo and for 16 years (1993-2008) in Ndiop. The main objectives of this work were to take into account familial relationships, repeated measures as well as effect of covariates to measure both environmental and host genetic (heritability) impacts on the outcome of infection with the malaria parasite Plasmodium falciparum, and then use findings from such analyses for linkage and association studies. The outcome of interest was the occurrence of a P. falciparum malaria attack during each trimester (PFA). The two villages were studied independently; epidemiological analyses, estimation of heritability and individual effects were then performed in each village separately. Linkage and association analyses used family-based methods (based on the original Transmission Disequilibrium Test) known to be immune from population stratification problems. Then to increase sample size for linkage and association analyses, data from the two villages were used together.
29

Méthodes de décomposition de domaines en temps et en espace pour la résolution de systèmes d'EDOs non-linéaires

Linel, Patrice 05 July 2011 (has links) (PDF)
La complexification de la modélisation multi-physique conduit d'une part à devoir simuler des systèmes d'équations différentielles ordinaires et d'équations différentielles algébriques de plus en plus grands en nombre d'inconnues et sur des temps de simulation longs. D'autre part l'évolution des architectures de calcul parallèle nécessite d'autres voies de parallélisation que la décomposition de système en sous-systèmes. Dans ce travail, nous proposons de concevoir des méthodes de décomposition de domaine pour la résolution d'EDO en temps. Nous reformulons le problème à valeur initiale en un problème aux valeurs frontières sur l'intervalle de temps symétrisé, sous l'hypothèse de réversibilité du flot. Nous développons deux méthodes, la première apparentée à une méthode de complément de Schur, la seconde basée sur une méthode de type Schwarz dont nous montrons la convergence pouvant être accélérée par la méthode d'Aitken dans le cadre linéaire. Afin d'accélérer la convergence de cette dernière dans le cadre non-linéaire, nous introduisons les techniques d'extrapolation et d'accélération de la convergence des suites non-linéaires. Nous montrons les avantages et les limites de ces techniques. Les résultats obtenus nous conduisent à développer l'accélération de la méthode de type Schwarz par une méthode de Newton. Enfin nous nous intéressons à l'étude de conditions de raccord non-linéaires adaptées à la décomposition de domaine de problèmes non-linéaires. Nous nous servons du formalisme hamiltonien à ports, issu du domaine de l'automatique, pour déduire les conditions de raccord dans le cadre l'équation de Saint-Venant et de l'équation de la chaleur non-linéaire. Après une étude analytique de la convergence de la DDM associée à ces conditions de transmission, nous proposons et étudions une formulation de Lagrangien augmenté sous l'hypothèse de séparabilité de la contrainte.
30

Sur les dérivées généralisées, les conditions d'optimalité et l'unicité des solutions en optimisation non lisse

Le Thanh, Tung 13 August 2011 (has links) (PDF)
En optimisation les conditions d'optimalité jouent un rôle primordial pour détecter les solutions optimales et leur étude occupe une place significative dans la recherche actuelle. Afin d'exprimer adéquatement des conditions d'optimalité les chercheurs ont introduit diverses notions de dérivées généralisées non seulement pour des fonctions non lisses, mais aussi pour des fonctions à valeurs ensemblistes, dites applications multivoques ou multifonctions. Cette thèse porte sur l'application des deux nouveaux concepts de dérivées généralisées: les ensembles variationnels de Khanh-Tuan et les approximations de Jourani-Thibault, aux problèmes d'optimisation multiobjectif et aux problèmes d'équilibre vectoriel. L'enjeu principal est d'obtenir des conditions d'optimalité du premier et du second ordre pour les problèmes ayant des données multivoques ou univoques non lisses et pas forcément continues, et des conditions assurant l'unicité des solutions dans les problèmes d'équilibre vectoriel.

Page generated in 0.1161 seconds