• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 127
  • 29
  • 13
  • 1
  • Tagged with
  • 170
  • 170
  • 170
  • 34
  • 34
  • 34
  • 24
  • 24
  • 23
  • 22
  • 22
  • 20
  • 20
  • 20
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Théorie du potentiel sur les courbes en géométrie analytique non archimédienne. Applications à la théorie d'Arakelov

Thuillier, Amaury 13 October 2005 (has links) (PDF)
Utilisant le point de vue introduit par V.G. Berkovich en géométrie analytique sur un corps non archimédien k, nous montrons dans cette thèse qu'il existe une théorie du potentiel naturelle sur toute courbe k-analytique lisse, tout à fait similaire à la théorie classique sur les surfaces de Riemann (courbes analytiques complexes). La motivation initiale vient des travaux de R. Rumely sur les applications arithmétiques d'une telle théorie. La théorie non archimédienne du potentiel à un aspect fortement combinatoire que l'on exploite initialement pour définir les fonctions harmoniques et établir leurs propriétés fondamentales. Nous introduisons ensuite une notion de fonction lisse ainsi qu'un opérateur linéaire, formellement analogue au laplacien complexe dd^c, que l'on étudie via une théorie des distributions. Le dernier chapitre présente une généralisation de la théorie d'Arakelov en dimension un, fondée sur la théorie non archimédienne du potentiel. Nous l'utilisons pour établir un théorème d'équidistribution des suites de points de petite hauteur, ainsi que pour donner une nouvelle démonstration d'un théorème de Rumely sur les capacités arithmétiques.
52

Optimisation de forme d'antennes lentilles intégrées aux ondes millimétriques

Le Louër, Frédérique 25 September 2009 (has links) (PDF)
Les antennes lentilles sont des dispositifs ayant pour support les ondes électromagnétiques et sont constituées d'une source primaire et d'un système focalisant diélectrique. La montée en importance récente d'applications en ondes millimétriques (exemple : radars d'assistance et d'aide à la conduite), nécessite la construction d'antennes lentilles de quelques centimètres qui répondent à des cahiers des charges spécifiques à chaque cas. L'une des problématiques à résoudre consiste à déterminer la forme optimale de la lentille étant données : (i) les caractéristiques de la source primaire, (ii) les caractéristiques en rayonnement fixées. Ce projet de thèse vise à développer de nouveaux outils pour l'optimisation de forme en utilisant une formulation intégrale du problème.<br />Cette thèse s'articule en deux parties. Dans la première nous avons construit plusieurs formulations intégrales pour le problème de diffraction diélectrique en utilisant une approche par équation intégrale surfacique. Dans la seconde nous avons étudié les dérivées de forme des opérateurs intégraux standard en électromagnétisme dans le but de les incorporer dans un algorithme d'optimisation de forme.
53

Méthodes de surface de réponse basées sur la décomposition de la variance fonctionnelle et application à l'analyse de sensibilité

Touzani, Samir 20 April 2011 (has links) (PDF)
L'objectif de cette thèse est l'investigation de nouvelles méthodes de surface de réponse afin de réaliser l'analyse de sensibilité de modèles numériques complexes et coûteux en temps de calcul. Pour ce faire, nous nous sommes intéressés aux méthodes basées sur la décomposition ANOVA. Nous avons proposé l'utilisation d'une méthode basée sur les splines de lissage de type ANOVA, alliant procédures d'estimation et de sélection de variables. L'étape de sélection de variable peut devenir très coûteuse en temps de calcul, particulièrement dans le cas d'un grand nombre de paramètre d'entrée. Pour cela nous avons développé un algorithme de seuillage itératif dont l'originalité réside dans sa simplicité d'implémentation et son efficacité. Nous avons ensuite proposé une méthode directe pour estimer les indices de sensibilité. En s'inspirant de cette méthode de surface de réponse, nous avons développé par la suite une méthode adaptée à l'approximation de modèles très irréguliers et discontinus, qui utilise une base d'ondelettes. Ce type de méthode a pour propriété une approche multi-résolution permettant ainsi une meilleure approximation des fonctions à forte irrégularité ou ayant des discontinuités. Enfin, nous nous sommes penchés sur le cas où les sorties du simulateur sont des séries temporelles. Pour ce faire, nous avons développé une méthodologie alliant la méthode de surface de réponse à base de spline de lissage avec une décomposition en ondelettes. Afin d'apprécier l'efficacité des méthodes proposées, des résultats sur des fonctions analytiques ainsi que sur des cas d'ingénierie de réservoir sont présentées.
54

Deterministic and stochastic methods for molecular simulation

Minoukadeh, Kimiya 24 November 2010 (has links) (PDF)
Molecular simulation is an essential tool in understanding complex chemical and biochemical processes as real-life experiments prove increasingly costly or infeasible in practice . This thesis is devoted to methodological aspects of molecular simulation, with a particular focus on computing transition paths and their associated free energy profiles. The first part is dedicated to computational methods for reaction path and transition state searches on a potential energy surface. In Chapter 3 we propose an improvement to a widely-used transition state search method, the Activation Relaxation Technique (ART). We also present a local convergence study of a prototypical algorithm. The second part is dedicated to free energy computations. We focus in particular on an adaptive importance sampling technique, the Adaptive Biasing Force (ABF) method. The first contribution to this field, presented in Chapter 5, consists in showing the applicability to a large molecular system of a new parallel implementation, named multiple-walker ABF (MW-ABF). Numerical experiments demonstrated the robustness of MW-ABF against artefacts arising due to poorly chosen or oversimplified reaction coordinates. These numerical findings inspired a new study of the longtime convergence of the ABF method, as presented in Chapter 6. By studying a slightly modified model, we back our numerical results by showing a faster theoretical rate of convergence of ABF than was previously shown
55

Analyse statistique des processus de marche aléatoire multifractale

Duvernet, Laurent 01 December 2010 (has links) (PDF)
On étudie certaines propriétés d'une classe de processus aléatoires réels à temps continu, les marches aléatoires multifractales. Une particularité remarquable de ces processus tient en leur propriété d'autosimilarité : la loi du processus à petite échelle est identique à celle à grande échelle moyennant un facteur aléatoire multiplicatif indépendant du processus. La première partie de la thèse se consacre à la question de la convergence du moment empirique de l'accroissement du processus dans une asymptotique assez générale, où le pas de l'accroissement peut tendre vers zéro en même temps que l'horizon d'observation tend vers l'infini. La deuxième partie propose une famille de tests non-paramétriques qui distinguent entre marches aléatoires multifractales et semi-martingales d'Itô. Après avoir montré la consistance de ces tests, on étudie leur comportement sur des données simulées. On construit dans la troisième partie un processus de marche aléatoire multifractale asymétrique tel que l'accroissement passé soit négativement corrélé avec le carré de l'accroissement futur. Ce type d'effet levier est notamment observé sur les prix d'actions et d'indices financiers. On compare les propriétés empiriques du processus obtenu avec des données réelles. La quatrième partie concerne l'estimation des paramètres du processus. On commence par montrer que sous certaines conditions, deux des trois paramètres ne peuvent être estimés. On étudie ensuite les performances théoriques et empiriques de différents estimateurs du troisième paramètre, le coefficient d'intermittence, dans un cas gaussien
56

Options exotiques dans les modèles exponentiels de Lévy

Dia, El Hadj Aly 01 July 2010 (has links) (PDF)
La valorisation des options exotiques continues de façon "exacte" est très difficile (voire impossible) dans les modèles exponentiels de Lévy. En fait nous verrons que pour les options lookback et barrière digitale, et sous l'hypothèse que les sauts de l'actif sous-jacent sont tous négatifs, nous avons des formules semi-fermées. En général il faut recourir à des techniques qui permettent d'approcher les prix de ces dérivés, ce qui engendre des erreurs. Nous étudierons le comportement asymptotique de ces erreurs. Dans certains cas ces erreurs peuvent être corrigées de sorte à obtenir une convergence plus rapide vers la valeur "exacte" recherchée. Nous proposons aussi des méthodes permettant d'évaluer les prix des options exotiques par des techniques de Monte-Carlo
57

Analysis and design of quality link metrics for routing protocols in Wireless Networks

Javaid, Nadeem 15 December 2010 (has links) (PDF)
This dissertation endeavors to contribute enhancements in goodputsof the IEEE 802.11-based Wireless Multi-hop Networks (WMhNs).By performing exhaustive simulations, for the deep analysis and detailed assessment of both reactive (AODV, DSR, DYMO) and proactive (DSDV, FSR, OLSR) protocols for varying mobilities, speeds, network loads and scalabilities, it is observed that a routing link metric is a significant component of a routing protocol. In addition to finding all available paths, the fastest end-to-end route is selected by a link metric for the routing protocol. This study aims the quality routing. In the class of quality link metrics, Expected Transmission Count (ETX) is extensively used. Thus, the most recently proposed ETX-based metrics have been analyzed. Though, newly developed metrics over perform ETX but still they can be improved. By profound analysis and particularized comparison of routing protocols depending upon their classes (reactive and proactive) and ETX-based metrics, we come to realize that users always demand proficient networks. In fact, WMhNs are facing several troubles which they expect to be resolved by the routing protocol operating them. Consequently, the protocol depends upon the link metric for providing quality paths. So, we identify and analyze the requirements to design a new routing link metric for WMhNs. Because, considering these requirements, when a link metric is proposed, then : firstly, both the design and implementation of the link metric with a routing protocol become easy. Secondly, the underlying network issues can easily be tackled. Thirdly, an appreciable performance of the network is guaranteed. Keeping in view the issues of WMhNs, increasing demands of users and capabilities of routing protocols, we propose and implement a new quality link metric, Interference and Bandwidth Adjusted ETX (IBETX). As, MAC layer affects the link performance and consequently the route quality, the metric therefore, tackles the issue by achieving twofold MAC-awareness. Firstly, interference is calculated using cross-layered approach by sending probes to MAC layer. Secondly, the nominal bit rate information is provided to all nodes in the same contention domain by considering the bandwidth sharing mechanism of 802.11. Like ETX, our metric also calculates link delivery ratios that directly affect throughput and selects those routes that bypass dense regions in the network. Simulation results by NS-2 show that IBETX gives 19% higher through put than ETX and 10% higher than Expected Throughput (ETP). Our metric also succeeds to reduce average end-to-end delay up to 16% less than Expected Link Performance (ELP) and 24% less than ETX
58

Analyse mathématique de quelques modèles en calcul de structures électroniques et homogénéisation

Anantharaman, Arnaud 16 November 2010 (has links) (PDF)
Cette thèse comporte deux volets distincts. Le premier, qui fait l'objet du chapitre 2, porte sur les modèles mathématiques en calcul de structures électroniques, et consiste plus particulièrement en l'étude des modèles de type Kohn-Sham avec fonctionnelles d'échange-corrélation LDA et GGA. Nous prouvons, pour un système moléculaire neutre ou chargé positivement, que le modèle Kohn-Sham LDA étendu admet un minimiseur, et que le modèle Kohn-Sham GGA pour un système contenant deux électrons admet un minimiseur. Le second volet de la thèse traite de problématiques diverses en homogénéisation. Dans les chapitres 3 et 4, nous nous intéressons à un modèle de matériau aléatoire dans lequel un matériau périodique est perturbé de manière stochastique. Nous proposons plusieurs approches, certaines rigoureuses et d'autres heuristiques, pour calculer au second ordre en la perturbation le comportement homogénéisé de ce matériau de manière purement déterministe. Les tests numériques effectués montrent que ces approches sont plus efficaces que l'approche stochastique directe. Le chapitre 5 est consacré aux couches limites en homogénéisation périodique, et vise notamment, dans le cadre parabolique, à comprendre comment prendre en compte les conditions aux limites et initiale, et comment corriger en conséquence le développement à deux échelles sur lequel repose classiquement l'homogénéisation, pour obtenir des estimations d'erreur dans des espaces fonctionnels adéquats
59

Résolution de grands problèmes en optimisation stochastique dynamique et synthèse de lois de commande

Girardeau, Pierre 17 December 2010 (has links) (PDF)
Le travail présenté ici s'intéresse à la résolution numérique de problèmes de commande optimale stochastique de grande taille. Nous considérons un système dynamique, sur un horizon de temps discret et fini, pouvant être influencé par des bruits exogènes et par des actions prises par le décideur. L'objectif est de contrôler ce système de sorte à minimiser une certaine fonction objectif, qui dépend de l'évolution du système sur tout l'horizon. Nous supposons qu'à chaque instant des observations sont faites sur le système, et éventuellement gardées en mémoire. Il est généralement profitable, pour le décideur, de prendre en compte ces observations dans le choix des actions futures. Ainsi sommes-nous à la recherche de stratégies, ou encore de lois de commandes, plutôt que de simples décisions. Il s'agit de fonctions qui à tout instant et à toute observation possible du système associent une décision à prendre. Ce manuscrit présente trois contributions. La première concerne la convergence de méthodes numériques basées sur des scénarios. Nous comparons l'utilisation de méthodes basées sur les arbres de scénarios aux méthodes particulaires. Les premières ont été largement étudiées au sein de la communauté "Programmation Stochastique". Des développements récents, tant théoriques que numériques, montrent que cette méthodologie est mal adaptée aux problèmes à plusieurs pas de temps. Nous expliquons ici en détails d'où provient ce défaut et montrons qu'il ne peut être attribué à l'usage de scénarios en tant que tel, mais plutôt à la structure d'arbre. En effet, nous montrons sur des exemples numériques comment les méthodes particulaires, plus récemment développées et utilisant également des scénarios, ont un meilleur comportement même avec un grand nombre de pas de temps. La deuxième contribution part du constat que, même à l'aide des méthodes particulaires, nous faisons toujours face à ce qui est couramment appelé, en commande optimale, la malédiction de la dimension. Lorsque la taille de l'état servant à résumer le système est de trop grande taille, on ne sait pas trouver directement, de manière satisfaisante, des stratégies optimales. Pour une classe de systèmes, dits décomposables, nous adaptons des résultats bien connus dans le cadre déterministe, portant sur la décomposition de grands systèmes, au cas stochastique. L'application n'est pas directe et nécessite notamment l'usage d'outils statistiques sophistiqués afin de pouvoir utiliser la variable duale qui, dans le cas qui nous intéresse, est un processus stochastique. Nous proposons un algorithme original appelé Dual Approximate Dynamic Programming (DADP) et étudions sa convergence. Nous appliquons de plus cet algorithme à un problème réaliste de gestion de production électrique sur un horizon pluri-annuel. La troisième contribution de la thèse s'intéresse à une propriété structurelle des problèmes de commande optimale stochastique : la question de la consistance dynamique d'une suite de problèmes de décision au cours du temps. Notre but est d'établir un lien entre la notion de consistance dynamique, que nous définissons de manière informelle dans le dernier chapitre, et le concept de variable d'état, qui est central dans le contexte de la commande optimale. Le travail présenté est original au sens suivant. Nous montrons que, pour une large classe de modèles d'optimisation stochastique n'étant pas a priori consistants dynamiquement, on peut retrouver la consistance dynamique quitte à étendre la structure d'état du système
60

Contribution à la détection et à la reconnaissance d'objets dans les images

Harzallah, Hedi 16 September 2011 (has links) (PDF)
Cette thèse s'intéresse au problème de la reconnaissance d'objets dans les images vidéo et plus particulièrement à celui de leur localisation. Elle a été conduite dans le contexte d'une collaboration scientifique entre l'INRIA Rhône-Alpes et MBDA France. De ce fait, une attention particulière a été accordée à l'applicabilité des approches proposées aux images infra-rouges. La méthode de localisation proposée repose sur l'utilisation d'une fenêtre glissante incluant une cascade à deux étages qui, malgré sa simplicité, permet d'allier rapidité et précision. Le premier étage est un étage de filtrage rejetant la plupart des faux positifs au moyen d'un classifieur SVM linéaire. Le deuxième étage élimine les fausses détections laissées par le premier étage avec un classifieur SVM non-linéaire plus lent, mais plus performant. Les fenêtres sont représentées par des descripteurs HOG et Bag-of-words. La seconde contribution de la thèse réside dans une méthode permettant de combiner localisation d'objets et catégorisation d'images. Ceci permet, d'une part, de prendre en compte le contexte de l'image lors de la localisation des objets, et d'autre part de s'appuyer sur la structure géométrique des objets lors de la catégorisation des images. Cette méthode permet d'améliorer les performances pour les deux tâches et produit des détecteurs et classifieurs dont la performance dépasse celle de l'état de l'art. Finalement, nous nous penchons sur le problème de localisation de catégories d'objets similaires et proposons de décomposer la tâche de localisation d'objets en deux étapes. Une première étape de détection permet de trouver les objets sans déterminer leurs positions tandis qu'une seconde étape d'identification permet de prédire la catégorie de l'objet. Nous montrons que cela permet de limiter les confusions entre les classes, principal problème observé pour les catégories d'objets visuellement similaires. La thèse laisse une place importante à la validation expérimentale, conduites sur la base PASCAL VOC ainsi que sur des bases d'images spécifiquement réalisées pour la thèse.

Page generated in 0.0515 seconds