• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
811

Comportement dynamique des barrages en béton et prise en compte des effets de site sur les ondes sismiques incidentes

Milovanovitch, Vladan D. 06 October 1992 (has links) (PDF)
L'influence des effets de site sur la réponse sismique des barrages-voûtes a été étudiée récemment par différents auteurs. Dans les travaux effectués jusqu'à présent l'excitation sismique est utilisée de différentes façons, mais toujours en se limitant à quelques angles d'incidence d'ondes sismiques, définis à l'avance. Les réponses des barrages-voûtes dans ces conditions ne représentent que des cas particuliers sur lesquels sont basées les conclusions. La méthode des surfaces d'énergie présentée dans ce travail, représente une méthode générale (et en même temps économique) qui se sert du balayage tridimensionnel fin sur tous les angles d'incidence dans l'espace, pour différents types d'ondes sismiques et leurs différentes célérités de propagation. L'excitation sismique est représentée par les ondes P, SV, SH et ondes de Rayleigh. Leurs expressions ont été développées en séries limitées et remplacées par différentes combinaisons de fonctions de forme dont les coefficients sont les fonctions d'angles d'incidence et de direction. Cette méthode nous permet de définir les intervalles d'angles d'incidence les plus dangereux et ceux les moins dangereux pour un barrage ainsi que l'influence et l'importance des effets de site sur la réponse sismique des barrages-voûtes. Dans les conditions générales d'angles d'incidence, plusieurs paramètres ont été variés et analysés à l'aide de 12 différents modèles qui représentent des systèmes complexes du barrage-voûte avec son réservoir et la masse rocheuse qui les entoure. Ces paramètres sont : les angles d'incidence , la position du noeud dans le barrage, les célérités de propagation d'ondes du champ proche dans la roche, les célérités de propagation d'ondes du champ lointain, les effets de site, les types d'ondes, la compressibilité de l'eau, la présence de la retenue pleine, le changement de la taille et de la forme du réservoir, la direction de la vallée, des petites modifications de la forme de la frontière du modèle numérique, l'utilisation des éléments fluides pour modéliser le réservoir. La méthode d'énergie maximale traite le problème extrémal de l'énergie dans le barrage sur l'espace des fonctions de forme. L'excitation sismique est représentée par un signal plus complexe que celui obtenu par des ondes P, S V, SH et ondes de Rayleigh. Dans les analyses sismiques sur les effets maxima on détermine également des mouvements "éventuels" de la roche qui donnent l'énergie maximale dans le barrage. Les conclusions donnent un apport théorique basé sur les analyses paramétriques effectuées dans ces conditions générales d'angles d'incidence, ainsi qu'un apport pratique qui montre le moyen de détermination de la position du barrage la plus favorable par rapport aux intervalles d'angles prédominants de séismes (en remplissant en même temps les autres conditions nécessaires: statiques, géologiques etc.). Dans le domaine théorique cette thèse élargit et classifie nos connaissances sur les phénomènes des effets de site, en premier lieu l'influence sur le barrage (structure étendue) du massif rocheux, dont les propriétés mécaniques sont exprimées par la célérité de propagation d'ondes sismiques et de l'interaction barrage-fluide du lac de retenue. La méthode présentée dans ce travail ainsi que le logiciel entièrement créé pour le même travail peuvent être applicables, avec peu de modifications, sur d'autres structures étendues dont le comportement sismique est décrit dans le domaine linéaire de façon suffisamment correcte.
812

Sur quelques méthodes en mécanique aléatoire

Sab, Karam 21 March 1989 (has links) (PDF)
Cette thèse contient quatre contributions indépendantes a la mécanique aléatoire: 1) une contribution aux suites à discrépance faible afin d'accélérer la convergence des algorithmes de type Monte-Carlo ; 2) l'homogénéisation des matériaux élastiques à microstructure aléatoire : on définit rigoureusement les tenseurs élastiques macroscopiques, on donne une méthode de simulation pour les calculer, enfin cette méthode est mise en oeuvre sur un matériau fictif ; 3) la fatigue à grand nombre de cycles des métaux polycristallins : on établit un nouveau critère d'endurance pour tous les chargements périodiques ; ce critère est susceptible de modéliser l'aspect aléatoire de la rupture ; 4) l'analyse de la simulation en calcul a 1 rupture probabiliste des structures discrètes : on montre notamment que l'approche par les vitesses est adaptée quand on a à effectuer une simulation et que l'algorithme du simplexe peut être utilisé.
813

Vers des mécanismes génériques de communication et une meilleure maîtrise des affinités dans les grappes de calculateurs hiérarchiques

Goglin, Brice 15 April 2014 (has links) (PDF)
Avec l'utilisation de plus en plus répandue de la simulation numérique dans de nombreuses branches de l'industrie, le calcul haute performance devient essentiel à la société. Si les plates-formes de calcul parallèle de plus en plus puissantes continuent à être construites, leur utilisation devient cependant de plus en plus un casse-tête. En effet, leur complexité croît avec la multiplication des ressources de calcul et de stockage impliquées, leurs fonctionnalités hétérogènes, et leur répartition non-uniforme. De nouveaux outils logiciels sont nécessaires pour faciliter l'exploitation de ces plates-formes. Je présente tout d'abord mes travaux visant à rendre plus accessibles et portables les mécanismes de communication développés par les constructeurs de réseaux haute performance pour le calcul. J'ai appliqué ce principe d'une part aux réseaux traditionnels de type Ethernet, et d'autre part aux communications entre processus locaux, afin d'améliorer les performances du passage de messages (MPI) sans dépendre de technologies matérielles spécialisées. J'explique ensuite comment faciliter la gestion des calculateurs hiérarchiques modernes. Il s'agit, d'une part, de modéliser ces plates-formes en représentant l'organisation des ressources de manière suffisamment simple pour masquer les détails techniques du matériel, et suffisamment précise pour permettre aux algorithmes de prendre des décisions de placement ou d'ordonnancement ; d'autre part, je propose des outils améliorant la gestion des architectures modernes où l'accès à la mémoire et aux périphériques n'est plus uniforme. Cela permet d'améliorer les performances de bibliothèques de calcul parallèle en tenant compte de la localité.
814

A user-centered and autonomic multi-cloud architecture for high performance computing applications / Un utilisateur centré et multi-cloud architecture pour le calcul des applications de haute performance

Ferreira Leite, Alessandro 02 December 2014 (has links)
Le cloud computing a été considéré comme une option pour exécuter des applications de calcul haute performance. Bien que les plateformes traditionnelles de calcul haute performance telles que les grilles et les supercalculateurs offrent un environnement stable du point de vue des défaillances, des performances, et de la taille des ressources, le cloud computing offre des ressources à la demande, généralement avec des performances imprévisibles mais à des coûts financiers abordables. Pour surmonter les limites d’un cloud individuel, plusieurs clouds peuvent être combinés pour former une fédération de clouds, souvent avec des coûts supplémentaires légers pour les utilisateurs. Une fédération de clouds peut aider autant les fournisseurs que les utilisateurs à atteindre leurs objectifs tels la réduction du temps d’exécution, la minimisation des coûts, l’augmentation de la disponibilité, la réduction de la consommation d’énergie, pour ne citer que ceux-Là. Ainsi, la fédération de clouds peut être une solution élégante pour éviter le sur-Approvisionnement, réduisant ainsi les coûts d’exploitation en situation de charge moyenne, et en supprimant des ressources qui, autrement, resteraient inutilisées et gaspilleraient ainsi de énergie. Cependant, la fédération de clouds élargit la gamme des ressources disponibles. En conséquence, pour les utilisateurs, des compétences en cloud computing ou en administration système sont nécessaires, ainsi qu’un temps d’apprentissage considérable pour maîtrises les options disponibles. Dans ce contexte, certaines questions se posent: (a) Quelle ressource du cloud est appropriée pour une application donnée? (b) Comment les utilisateurs peuvent-Ils exécuter leurs applications HPC avec un rendement acceptable et des coûts financiers abordables, sans avoir à reconfigurer les applications pour répondre aux normes et contraintes du cloud ? (c) Comment les non-Spécialistes du cloud peuvent-Ils maximiser l’usage des caractéristiques du cloud, sans être liés au fournisseur du cloud ? et (d) Comment les fournisseurs de cloud peuvent-Ils exploiter la fédération pour réduire la consommation électrique, tout en étant en mesure de fournir un service garantissant les normes de qualité préétablies ? À partir de ces questions, la présente thèse propose une solution de consolidation d’applications pour la fédération de clouds qui garantit le respect des normes de qualité de service. On utilise un système multi-Agents pour négocier la migration des machines virtuelles entre les clouds. En nous basant sur la fédération de clouds, nous avons développé et évalué une approche pour exécuter une énorme application de bioinformatique à coût zéro. En outre, nous avons pu réduire le temps d’exécution de 22,55% par rapport à la meilleure exécution dans un cloud individuel. Cette thèse présente aussi une architecture de cloud baptisée « Excalibur » qui permet l’adaptation automatique des applications standards pour le cloud. Dans l’exécution d’une chaîne de traitements de la génomique, Excalibur a pu parfaitement mettre à l’échelle les applications sur jusqu’à 11 machines virtuelles, ce qui a réduit le temps d’exécution de 63% et le coût de 84% par rapport à la configuration de l’utilisateur. Enfin, cette thèse présente un processus d’ingénierie des lignes de produits (PLE) pour gérer la variabilité de l’infrastructure à la demande du cloud, et une architecture multi-Cloud autonome qui utilise ce processus pour configurer et faire face aux défaillances de manière indépendante. Le processus PLE utilise le modèle étendu de fonction avec des attributs pour décrire les ressources et les sélectionner en fonction des objectifs de l’utilisateur. Les expériences réalisées avec deux fournisseurs de cloud différents montrent qu’en utilisant le modèle proposé, les utilisateurs peuvent exécuter leurs applications dans un environnement de clouds fédérés, sans avoir besoin de connaître les variabilités et contraintes du cloud. / Cloud computing has been seen as an option to execute high performance computing (HPC) applications. While traditional HPC platforms such as grid and supercomputers offer a stable environment in terms of failures, performance, and number of resources, cloud computing offers on-Demand resources generally with unpredictable performance at low financial cost. Furthermore, in cloud environment, failures are part of its normal operation. To overcome the limits of a single cloud, clouds can be combined, forming a cloud federation often with minimal additional costs for the users. A cloud federation can help both cloud providers and cloud users to achieve their goals such as to reduce the execution time, to achieve minimum cost, to increase availability, to reduce power consumption, among others. Hence, cloud federation can be an elegant solution to avoid over provisioning, thus reducing the operational costs in an average load situation, and removing resources that would otherwise remain idle and wasting power consumption, for instance. However, cloud federation increases the range of resources available for the users. As a result, cloud or system administration skills may be demanded from the users, as well as a considerable time to learn about the available options. In this context, some questions arise such as: (a) which cloud resource is appropriate for a given application? (b) how can the users execute their HPC applications with acceptable performance and financial costs, without needing to re-Engineer the applications to fit clouds' constraints? (c) how can non-Cloud specialists maximize the features of the clouds, without being tied to a cloud provider? and (d) how can the cloud providers use the federation to reduce power consumption of the clouds, while still being able to give service-Level agreement (SLA) guarantees to the users? Motivated by these questions, this thesis presents a SLA-Aware application consolidation solution for cloud federation. Using a multi-Agent system (MAS) to negotiate virtual machine (VM) migrations between the clouds, simulation results show that our approach could reduce up to 46% of the power consumption, while trying to meet performance requirements. Using the federation, we developed and evaluated an approach to execute a huge bioinformatics application at zero-Cost. Moreover, we could decrease the execution time in 22.55% over the best single cloud execution. In addition, this thesis presents a cloud architecture called Excalibur to auto-Scale cloud-Unaware application. Executing a genomics workflow, Excalibur could seamlessly scale the applications up to 11 virtual machines, reducing the execution time by 63% and the cost by 84% when compared to a user's configuration. Finally, this thesis presents a product line engineering (PLE) process to handle the variabilities of infrastructure-As-A-Service (IaaS) clouds, and an autonomic multi-Cloud architecture that uses this process to configure and to deal with failures autonomously. The PLE process uses extended feature model (EFM) with attributes to describe the resources and to select them based on users' objectives. Experiments realized with two different cloud providers show that using the proposed model, the users could execute their application in a cloud federation environment, without needing to know the variabilities and constraints of the clouds.
815

Contributions au calcul des variations et au principe du maximum de Pontryagin en calculs time scale et fractionnaire / Contributions to calculus of variations and to Pontryagin maximum principle in time scale calculus and fractional calculus

Bourdin, Loïc 18 June 2013 (has links)
Cette thèse est une contribution au calcul des variations et à la théorie du contrôle optimal dans les cadres discret, plus généralement time scale, et fractionnaire. Ces deux domaines ont récemment connu un développement considérable dû pour l’un à son application en informatique et pour l’autre à son essor dans des problèmes physiques de diffusion anormale. Que ce soit dans le cadre time scale ou dans le cadre fractionnaire, nos objectifs sont de : a) développer un calcul des variations et étendre quelques résultats classiques (voir plus bas); b) établir un principe du maximum de Pontryagin (PMP en abrégé) pour des problèmes de contrôle optimal. Dans ce but, nous généralisons plusieurs méthodes variationnelles usuelles, allant du simple calcul des variations au principe variationnel d’Ekeland (couplé avec la technique des variations-aiguilles), en passant par l’étude d’invariances variationnelles par des groupes de transformations. Les démonstrations des PMPs nous amènent également à employer des théorèmes de point fixe et à prendre en considération la technique des multiplicateurs de Lagrange ou encore une méthode basée sur un théorème d’inversion locale conique. Ce manuscrit est donc composé de deux parties : la Partie 1 traite de problèmes variationnels posés sur time scale et la Partie 2 est consacrée à leurs pendants fractionnaires. Dans chacune de ces deux parties, nous suivons l’organisation suivante : 1. détermination de l’équation d’Euler-Lagrange caractérisant les points critiques d’une fonctionnelle Lagrangienne ; 2. énoncé d’un théorème de type Noether assurant l’existence d’une constante de mouvement pour les équations d’Euler-Lagrange admettant une symétrie ; 3. énoncé d’un théorème de type Tonelli assurant l’existence d’un minimiseur pour une fonctionnelle Lagrangienne et donc, par la même occasion, d’une solution pour l’équation d’Euler-Lagrange associée (uniquement en Partie 2) ; 4. énoncé d’un PMP (version forte en Partie 1, version faible en Partie 2) donnant une condition nécessaire pour les trajectoires qui sont solutions de problèmes de contrôle optimal généraux non-linéaires ; 5. détermination d’une condition de type Helmholtz caractérisant les équations provenant d’un calcul des variations (uniquement en Partie 1 et uniquement dans les cas purement continu et purement discret). Des théorèmes de type Cauchy-Lipschitz nécessaires à l’étude de problèmes de contrôle optimal sont démontrés en Annexe. / This dissertation deals with the mathematical fields called calculus of variations and optimal control theory. More precisely, we develop some aspects of these two domains in discrete, more generally time scale, and fractional frameworks. Indeed, these two settings have recently experience a significant development due to its applications in computing for the first one and to its emergence in physical contexts of anomalous diffusion for the second one. In both frameworks, our goals are: a) to develop a calculus of variations and extend some classical results (see below); b) to state a Pontryagin maximum principle (denoted in short PMP) for optimal control problems. Towards these purposes, we generalize several classical variational methods, including the Ekeland’s variational principle (combined with needle-like variations) as well as variational invariances via the action of groups of transformations. Furthermore, the investigations for PMPs lead us to use fixed point theorems and to consider the Lagrange multiplier technique and a method based on a conic implicit function theorem. This manuscript is made up of two parts : Part A deals with variational problems on time scale and Part B is devoted to their fractional analogues. In each of these parts, we follow (with minor differences) the following organization: 1. obtaining of an Euler-Lagrange equation characterizing the critical points of a Lagrangian functional; 2. statement of a Noether-type theorem ensuring the existence of a constant of motion for Euler-Lagrange equations admitting a symmetry;3. statement of a Tonelli-type theorem ensuring the existence of a minimizer for a Lagrangian functional and, consequently, of a solution for the corresponding Euler-Lagrange equation (only in Part B); 4. statement of a PMP (strong version in Part A and weak version in Part B) giving a necessary condition for the solutions of general nonlinear optimal control problems; 5. obtaining of a Helmholtz condition characterizing the equations deriving from a calculus of variations (only in Part A and only in the purely continuous and purely discrete cases). Some Picard-Lindelöf type theorems necessary for the analysis of optimal control problems are obtained in Appendices.
816

Outils de calcul quantique tolérant aux fautes

Duclos-Cianci, Guillaume January 2015 (has links)
Le développement de qubits quantiques robustes représente un défi technologique de taille. Malgré plus d'une décennie de progrès et de percées, nous sommes toujours à la recherche du candidat idéal. La difficulté réside dans la nécessité de respecter une panoplie de critères stricts: on doit pouvoir préparer et mesurer les qubits rapidement et de manière fiable, préserver leur état pour de longs temps, appliquer avec précision un continuum de transformations, les coupler les uns aux autres, en entasser des milliers, voire des millions sur un seul dispositif, etc. Parallèlement à ces recherches, un autre groupe de scientifiques travaillent plutôt à l'élaboration de l'architecture permettant d'opérer ces qubits. Cette architecture inclut une couche logicielle de base dont l'étude constitue le domaine du calcul tolérant aux fautes: en encodant l'information dans des qubits logiques à l'aide des qubits physiques disponibles, il est possible d'obtenir un dispositif quantique dont les propriétés effectives sont supérieures à celles des composantes physiques sous-jacentes. En contrepartie, une surcharge doit être payée. Celle-ci peut être interprétée comme une forme de redondance dans l'information. De plus, les portes logiques applicables aux qubits encodés sont souvent trop limitées pour être utiles. La recherche dans ce domaine vise souvent à limiter la surcharge et à étendre l'ensemble des opérations applicables. Cette thèse présente les travaux que j'ai publiés avec mes collaborateurs durant mes études de doctorat. Ceux-ci touchent deux aspects importants du calcul tolérant aux fautes: l'élaboration de protocoles de calcul universel et la conception et l'étude d'algorithmes de décodage de codes topologiques stabilisateurs. Concernant l'élaboration de protocoles de calcul universel, j'ai développé avec l'aide de Krysta Svore chez Microsoft Research une nouvelle famille d'états ressources (Chapitre 2). Celle-ci permet, par l'injection d'états, d'effectuer une opération unitaire arbitraire à un qubit à un coût plus faible que les méthodes existant à ce moment. Plus tard, j'ai poursuivi ces travaux avec David Poulin pour élaborer une autre famille d'états ressources qui diminuent encore davantage les coûts de compilation de diverses portes unitaires à un qubit (Chapitre 3). Finalement, Jonas Anderson, David Poulin et moi avons montré comment il est possible de passer de manière tolérante aux fautes d'un encodage à un autre (Chapitre 4). Cette approche est qualitativement différente, car elle fournit un ensemble universel de portes sans passer par l'injection d'états. Durant mon doctorat, j'ai aussi généralisé de plusieurs manières la méthode de décodage par renormalisation du code topologique de Kitaev que j'ai développée au cours de ma maîtrise. Tout d'abord, j'ai collaboré avec Héctor Bombin et David Poulin dans le but de montrer que tous les codes topologiques stabilisateurs invariants sous translation sont équivalents, c'est-à-dire qu'ils appartiennent à la même phase topologique (Chapitre 5). Ce résultat m'a aussi permis d'adapter mon décodeur aux codes topologiques de couleurs stabilisateurs et à sous-systèmes. Puis, je l'ai adapté à une généralisation du code topologique de Kitaev sur des qudits (Chapitre 6). Ensuite, je l'ai généralisé au cas tolérant aux fautes, où les erreurs dans les mesures du syndrome sont prises en compte (Chapitre 7). Finalement, je l'ai appliqué à un nouveau code élaboré par Sergey Bravyi, le code de surface à sous-systèmes (Chapitre 8).
817

Modélisation et étude 3D des phénomènes de cisaillement adiabatiques dans les procédés de mise en forme à grande vitesse

Delalondre, Fabien 19 December 2008 (has links) (PDF)
Malgré des résultats prometteurs, les procédés de mise en forme à grande vitesse sont encore peu utilisés dans l'industrie du fait d'un manque de compréhension du phénomène de Bande de Cisaillement Adiabatique (BCA).<br/>Ce travail présente le développement d'outils numériques permettant la simulation adaptative et l'analyse de BCA dans des procédés 3D de mise en forme à grande vitesse. L'utilisation du modèle ALE-adaptatif séquentiel développé dans le logiciel Forge3 permet pour la première fois la simulation automatique de BCA 3D. L'étude des résultats numériques permet de proposer une description innovante du processus de formation de BCA. Les moyens de calcul requis s'avérant très importants, un nouveau code éléments finis hautement parallèle appelé Forge++ est développé. Ce dernier inclut de nouveaux algorithmes tels que le couplage thermomécanique implicite, la méthode de stabilisation RFB et un recouvrement par patch parallèle pour une meilleure simulation de BCA.
818

Algorithmes Rapides pour les Tours de Corps Finis et les Isogénies

De Feo, Luca 13 December 2010 (has links) (PDF)
Dans cette thèse nous appliquons des techniques provenant du calcul formel et de la théorie des langages afin d'améliorer les opérations élémentaires dans certaines tours de corps finis. Nous appliquons notre construction au problème du calcul d'isogénies entre courbes elliptiques et obtenons une variante plus rapide (à la fois en théorie et en pratique) de l'algorithme de Couveignes. Le document est divisé en quatre parties. Dans la partie I nous faisons des rappels d'algèbre et de théorie de la complexité. La partie II traite du principe de transposition : nous généralisons des idées de Bostan, Schost et Lecerf et nous montrons qu'il est possible de transposer automatiquement des programmes sans pertes en complexité-temps et avec une petite perte en complexité-espace. La partie III combine les résultats sur le principe de transposition avec des techniques classiques en théorie de l'élimination ; nous appliquons ces idées pour obtenir des algorithmes asymptotiquement optimaux pour l'arithmétique des tours d'Artin-Schreier de corps finis. Nous décrivons aussi une implantation de ces algorithmes. Enfin, dans la partie IV nous utilisons les résultats précédents afin d'accélérer l'algorithme de Couveignes et de comparer le résultat avec les autres algorithmes pour le calcul d'isogénies qui font l'état de l'art. Nous présentons aussi une nouvelle généralisation de l'algorithme de Couveignes qui calcule des isogénies de degré inconnu.
819

Optimisation Globale basée sur l'Analyse d'Intervalles: Relaxation Affine et Limitation de la Mémoire

Ninin, Jordan 08 December 2010 (has links) (PDF)
Depuis une vingtaine d'années, la résolution de problèmes d'optimisation globale non convexes avec contraintes a connu un formidable essor. Les algorithmes de branch and bound basée sur l'analyse d'intervalles ont su trouver leur place, car ils ont l'avantage de prouver l'optimalité de la solution de façon déterministe, avec un niveau de certitude pouvant aller jusqu'à la précision machine. Cependant, la complexité exponentielle en temps et en mémoire de ces algorithmes induit une limite intrinsèque, c'est pourquoi il est toujours nécessaire d'améliorer les techniques actuelles. - Dans cette thèse, nous avons développé de nouvelles arithmétiques basées sur l'arithmétique d'intervalles et l'arithmétique affine, afin de calculer des minorants et des majorants de meilleure qualité de fonctions explicites sur un intervalle. - Nous avons ensuite développé une nouvelle méthode automatique de construction de relaxations linéaires. Cette construction est basée sur l'arithmétique affine et procède par surcharge des opérateurs. Les programmes linéaires ainsi générés ont exactement le même nombre de variables et de contraintes d'inégalité que les problèmes originaux, les contraintes d'égalité étant remplacées par deux inégalités. Cette nouvelle procédure permet de calculer des minorants fiables et des certificats d'infaisabilité pour chaque sous-domaine à chaque itération de notre algorithme de branch and bound par intervalles. De nombreux tests numériques issus du site COCONUT viennent confirmer l'efficacité de cette approche. - Un autre aspect de cette thèse a été l'étude d'une extension de ce type d'algorithmes en introduisant une limite sur mémoire disponible. L'idée principale de cette approche est de proposer un processus inverse de l'optimisation par le biais d'un principe métaheuristique: plutôt que d'améliorer des solutions locales à l'aide de métaheuristiques telles que les algorithmes Taboo ou VNS, nous partons d'une méthode exacte et nous la modifions en une heuristique. De cette façon, la qualité de la solution trouvée peut être évaluée. Une étude de la complexité de ce principe métaheuristique a également été effectuée. - Enfin, pour finir l'étude, nous avons appliqué notre algorithme à la résolution de problème en géométrie plane, ainsi qu'à la résolution d'un problème de dimensionnement de moteur électrique. Les résultats obtenus ont permis de confirmer l'intérêt de ce type d'algorithme, en résolvant des problèmes ouverts sur les polygones convexes et proposant des structures innovantes en génie électrique.
820

Calcul stochastique via régularisation en dimension infinie avec perspectives financières

Di Girolami, Cristina 05 July 2010 (has links) (PDF)
Ce document de thèse développe certains aspects du calcul stochastique via régularisation pour des processus X à valeurs dans un espace de Banach général B. Il introduit un concept original de Chi-variation quadratique, où Chi est un sous-espace du dual d'un produit tensioriel B⊗B, muni de la topologie projective. Une attention particulière est dévouée au cas où B est l'espace des fonctions continues sur [-τ,0], τ>0. Une classe de résultats de stabilité de classe C^1 pour des processus ayant une Chi-variation quadratique est établie ainsi que des formules d'Itô pour de tels processus. Un rôle significatif est joué par les processus réels à variation quadratique finie X (par exemple un processus de Dirichlet, faible Dirichlet). Le processus naturel à valeurs dans C[-τ,0] est le dénommé processus fenêtre X_t(•) où X_t(y) = X_{t+y}, y ∈ [-τ,0]. Soit T>0. Si X est un processus dont la variation quadratique vaut [X]_t = t et h = H(X_T(•)) où H:C([-T,0])→ R est une fonction de classe C^3 Fréchet par rapport à L^2([-T,0] ou H dépend d'un numéro fini d' intégrales de Wiener, il est possible de représenter h comme un nombre réel H_0 plus une intégrale progressive du type \int_0^T \xi d^-X où \xi est un processus donné explicitement. Ce résultat de répresentation de la variable aléatoire h sera lié strictement à une fonction u:[0,T] x C([-T,0])→R qui en général est une solution d'une equation au derivées partielles en dimension infinie ayant la proprieté H_0=u(0, X_0(•)), \xi_t=Du(t, X_t(•))({0}). A certains égards, ceci généralise la formule de Clark-Ocone valable lorsque X est un mouvement brownien standard W. Une des motivations vient de la théorie de la couverture d'options lorsque le prix de l'actif soujacent n'est pas une semimartingale.

Page generated in 0.0233 seconds