• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 4
  • Tagged with
  • 19
  • 19
  • 9
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Resolution de systemes lineaires de grande taille avec plusieurs seconds membres

Langou, Julien 10 June 2003 (has links) (PDF)
Le point de départ de cette thèse est un problème posé par le groupe électromagnétisme de EADS-CCR : comment résoudre plusieurs systèmes linéaires avec la même matrice mais différents seconds membres ? Pour l'application voulue, les matrices sont complexes, denses et de grande taille. Un problème standard comporte environ quelques millions d'inconnues. Comme de telles matrices ne peuvent être ni calculées, ni stockées dans un processus industriel, l'utilisation d'un produit matrice-vecteur approché est la seule alternative. En l'occurrence, le produit matrice-vecteur est effectué en utilisant la méthode multipôle rapide. Dans ce contexte, le but de cette thèse est d'adapter les méthodes itératives de type Krylov de telle sorte qu'elles traitent efficacement les nombreux seconds membres. Des travaux préliminaires avec un seul second membre ont montré que la méthode GMRES est particulièrement efficace et robuste pour cette application. En conséquence dans cette thèse nous abordons uniquement les variantes de GMRES. Les schémas d'orthogonalisation que nous avons implantés dans GMRES sont des variantes de l'algorithme de Gram-Schmidt. <br /><br />Dans une première partie, nous nous intéressons à l'influence des erreurs d'arrondi dans les algorithmes de Gram-Schmidt. Nos résultats répondent à des questions vieilles de vingt-cinq ans. Nous donnons l'explication théorique de ce qui était communément observé et accepté : <br /><br /> - l'algorithme de Gram-Schmidt modifié génère un ensemble de vecteurs bien conditionné ;<br /> - l'algorithme de Gram-Schmidt itéré deux fois fabrique un ensemble de vecteurs orthonormé.<br /><br />Ces deux propositions reposent sur l'hypothèse que la matrice de départ est "numériquement non singulière" en un sens qui est clairement défini. D'autre part, quand l'algorithme de Gram-Schmidt est itéré avec un critère de réorthogonalisation, nous proposons un nouveau critère. Nous montrons que l'algorithme obtenu est robuste alors que le critère communément utilisé est mis en défaut dans certains cas. Finalement, nous généralisons des résultats standards sur les normes en terme de valeurs singulières pour l'algorithme de Gram-Schmidt modifié. Ceci nous permet de dériver un schéma de réorthogonalisation a posteriori utilisant une matrice de rang faible. Ces résultats ont plusieurs applications directes. Nous en donnons des exemples avec les méthodes de Krylov pour résoudre des problèmes linéaires avec plusieurs seconds membres.<br /><br />Dans la deuxième partie, nous avons implémenté des variantes de la méthode GMRES pour les arithmétiques réelle et complexe, simple et double précisions. Cette implémentation convient pour des ordinateurs classiques, à mémoire partagée ou distribuée. Le code en résultant satisfait aux critères de qualité des librairies standards et son implémentation est largement détaillée. Pour des besoins de simplicité, flexibilité et efficacité, les solveurs utilisent un mécanisme de reverse communication pour les produits matrice-vecteur, les étapes de préconditionnement et les produits scalaires. Différents schémas d'orthogonalisation sont implémentés pour réduire le coût de calcul des produits scalaires, un point particulièrement important pour l'efficacité des méthodes de Krylov dans un environnement parallèle distribué. Le critère d'arrêt implémenté est basé sur l'erreur inverse normalisée. Les variantes disponibles sont GMRES-DR, seed-GMRES et block-GMRES. Ces codes s'ajoutent aux variantes déjà existantes (GMRES, flexible GMRES et SQMR). Un produit matrice-vecteur avec une décomposition LU est utilisé dans GMRES-DR de telle sorte que le stockage des approximations des vecteurs propres se fasse sur les premiers vecteurs de l'espace de Krylov. Un restart implicite et une étape de préconditionnement implicite ont été implémentés dans seed-GMRES. Nous supprimons ainsi un produit matrice-vecteur et une étape de préconditionnement par second membre et par cycle de GMRES. La version de block-GMRES permet à l'utilisateur de sélectionner différents modes de déflation. Pour terminer, des résultats reliant la norme du résidu de GMRES à la plus petite valeur singulière de l'espace construit par la méthode de Krylov ont été généralisés à la méthode block-GMRES.<br /><br />La troisième partie est consacrée à l'amélioration des techniques standards pour la résolution des systèmes linéaires dans le cadre des problèmes électromagnétiques. Après une présentation approfondie du code, nous étudions l'influence de la non-symétrie sur la convergence de l'algorithme SQMR. Nous étudions aussi le comportement de GMRES-DR sur nos problèmes. Ceci correspond à deux méthodes avec un seul second membre, le reste de cette partie concerne les cas comportant plusieurs seconds membres. Tout d'abord, nous examinons en détail les techniques qui permettent d'adapter les méthodes utilisées pour un second membre unique aux cas comportant plusieurs seconds membres. Par exemple, on peut améliorer la qualité du préconditionneur, avoir une stratégie de solution initiale, grouper les opérations de plusieurs résolutions ou encore paralléliser plusieurs résolutions. Dans le contexte du calcul de surface équivalente radar monostatique, nous avons montré que l'espace des seconds membres du problème continu était de dimension finie. La dimension donnée par notre théorie est proche de celle que nous observons en pratique. Cette propriété nous permet de réduire considérablement le nombre de systèmes linéaires à résoudre. Dans ce contexte, une version de la méthode block-GMRES est donnée. Ensuite, nous abordons certains problèmes spécifiques des méthodes seed-GMRES et block-GMRES pour lesquels nous proposons des solutions. Pour finir, des résultats plus prospectifs sont donnés. Plusieurs stratégies pour extraire et ajouter de l'information spectrale d'un cycle de GMRES à l'autre sont proposées et comparées. Puis nous utilisons le fait que la méthode multipôle rapide est un produit matrice-vecteur inexact dont la précision est réglable. Moins précis est le produit matrice-vecteur, plus rapide il est. Nous montrons comment tirer partie de cette propriété en utilisant un schéma relâché (méthode de Krylov inexacte) ou des itérations emboîtées (flexible GMRES). Enfin, le critère d'arrêt basé sur l'erreur inverse normalisée dans le cadre du calcul d'une surface équivalente radar est remis en question.
12

Optimisation de réseaux de télécommunications avec sécurisation

REBAI, Raja 10 February 2000 (has links) (PDF)
La première partie de cette thèse, concerne une étude de robustesse des algorithmes de points intérieurs prédicteurs correcteurs, ainsi qu'une approche par décomposition de cette méthode pour la résolution de problè mes de multiflot. Dans la deuxième partie, nous nous intéressons au Problème de Sécurisation Globale dont l'objectif est de déterminer un multiflot (qui transporte toute demande de son noeud origine à son noeud destination en respectant la loi de Kirchhoff) et l'investissement de moindre coût en capacité s nominale et de réserve qui assure le routage nominal et garantit sa survie par reroutage global. Dans notre modèle les routages et les capacités peuvent être fractionnés. PSG se formule alors comme un problème linéaire de grande taille avec plusieurs niveaux de couplage. Sa structure particulière appelle à l'emploi d'algorithmes de décompositions. Nous proposons quatre méthodes utilisant la technique de génération de colonnes. Les deux premières sont basées sur les techniques proximales. Leur tâche principale consiste en la résolution de sous problèmes quadratiques indépendants. Le troisième algorithme s'inspire de l'approche de points intérieurs décrite à la première partie. Pour finir, nous intégrons une procédure d'élimination de chemins dans une adaptation d'un solveur de points intérieurs. Nous reportons des résultats numériques obtenus en testant ces algorithmes sur des données réelles fournies par le CNET.
13

Optimisation de vecteurs propres de Perron et applications : du référencement de pages web à la chronothérapie

Fercoq, Olivier 17 September 2012 (has links) (PDF)
Les moteurs de recherche jouent un rôle essentiel sur le Web. Ils rassemblent des informations sur les pages web et pour chaque requête d'un internaute, ils donnent une liste ordonnée de pages pertinentes. Ils utilisent divers algorithmes pour classer les pages en fonction de leur contenu textuel ou de la structure d'hyperlien du Web. Ici, nous nous concentrons sur les algorithmes qui utilisent cette structure d'hyperliens, comme le PageRank, HITS, SALSA et HOTS. La notion fondamentale pour tous ces algorithmes est le graphe du web. C'est le graphe orienté qui a un noeud pour chaque page web et un arc entre les noeuds i et j si il y a un hyperlien entre les pages i et j. Le problème original considéré dans cette thèse est l'optimisation du référencement des pages d'un site web donné. Il consiste à trouver une stratégie optimale de liens qui maximise une fonction scalaire d'un classement donné sous des contraintes de design. Le PageRank, HITS et SALSA classent les pages par un vecteur de Perron, c'est-à-dire qu'ils correspondent au vecteur propre principal d'une matrice à coefficients positifs. Quand on optimise le référencement, on optimise donc une fonction scalaire du vecteur propre de Perron sur un ensemble de matrices positives irréductibles. La matrice est construite à partir du graphe du web, donc commander les hyperliens revient à commander la matrice elle-même. Nous étudions d'abord un problème général d'optimisation du PageRank avec une fonction d'utilité correspondant au revenu total du site et des contraintes de design. Ce cas est d'un intérêt particulier car pour de nombreux sites la valeur du PageRank est corrélée au chiffre d'affaires. Nous avons réduit le problème d'optimisation du PageRank à des problèmes de décision markoviens dont les ensembles d'action sont définis implicitement comme étant les points extrêmes de polytopes qui ont un oracle de séparation polynomial. Nous montrons que de tels problèmes de décision markoviens sont solubles en temps polynomial et nous donnons un algorithme qui passe à l'échelle pour la résolution effective du problème d'optimisation du PageRank sur de grandes bases de données. Ensuite, nous étudions le problème général de l'optimisation d'une fonction scalaire du vecteur propre de Perron sur un ensemble de matrices positives irréductibles. Cela couvre tous les classements par vecteur de Perron, HITS et SALSA compris. Nous montrons que la matrice des dérivées partielles de la fonction objectif a un petit rang et peut être calculée par un algorithme qui a les mêmes propriétés de convergence que la méthode de la puissance utilisée pour calculer le classement. Nous donnons un algorithme d'optimisation qui couple les itérations puissance et gradient et nous prouvons sa convergence vers un point stationnaire du problème d'optimisation. En considérant HOTS comme un vecteur de Perron non linéaire, nous montrons que l'algorithme HOTS converge géométriquement et nous résolvons l'optimisation locale de HOTS. Finalement, nous étendons le domaine d'application des méthodes d'optimisation du vecteur propre et de la valeur propre de Perron à l'optimisation de la chimiothérapie, sous l'hypothèse que les cellules se comportent différemment suivant l'heure de la journée. Nous voulons profiter de cette caractéristique pour minimiser le taux de croissance des cellules cancéreuses tout en maintenant le taux de croissance des cellules saines au dessus d'un seuil de toxicité donné. L'objectif et la contrainte peuvent s'écrire comme les valeurs propres de Floquet de modèles d'EDP structurés en âge avec des coefficients périodiques, qui sont approchés par des valeurs propres de Perron dans le problème discrétisé. Nous cherchons des stratégies d'injection de médicament localement optimales par une méthode des multiplicateurs où les minimisations sans contrainte sont faites en utilisant l'algorithme couplant les itérations puissance et gradient développé dans le cadre de l'optimisation du référencement.
14

Modélisation et analyse structurelle du fonctionnement dynamique des systèmes électriques / Modeling and structural analysis of power systems dynamic model

Belhocine, Mohamed 25 November 2016 (has links)
Cette thèse traite des problématiques relatives à la modélisation, l’analyse et la simulation des systèmes électriques interconnectés. Elle a été principalement motivée par le besoin de comprendre et de clarifier les niveaux de modélisation de certains composants électriques comme les lignes de transmission ainsi que leur habilité à reproduire les différents phénomènes qui présentent un intérêt dans le système. En effet, pour faciliter les études et les simulations, les modèles les plus détaillés et les plus complexes sont généralement remplacés par des modèles plus simples selon le type des phénomènes visés. Usuellement, la structure dynamique de l’ensemble du système n’est pas prise en compte dans l’étape de simplification, ce qui fait que, dans la plupart du temps, des validations expérimentales sont nécessaires. C’est pourquoi un cadre structurel et une vision systémique sont proposés dans cette thèse afin d’apporter des solutions plus générales et plus fiables qui s’adaptent mieux à l’approximation des systèmes électriques. Le cadre proposé il nous a permis : d’une part, d’expliquer par le biais de la réduction l’approximation du modèle à paramètres distribués d’une ligne par un modèle plus simple de dimension finie appelé π et d’autre part, d’étendre les investigations à une échelle plus grande où une nouvelle méthodologie de troncature est proposée pour l’approximation des modèles dynamiques de grande taille. Elle se distingue des méthodes standards par l’efficacité d’évaluation des dynamiques du système même dans des situations particulières ainsi que la prise en compte de divers besoins pratiques. Il s’agit d’une approche mixte qui combine, d’une part, le principe de la troncature modale et, d’autre part, l’énergie de la réponse impulsionnelle afin de préserver les structures dynamique et physique du système. A cela s’ajoute également la question du nombre et choix des entrées des systèmes à paramètres distribués qui est posée ici d’un point de vue de l’automatique afin de lui donner plus d’utilité pratique, surtout dans les simulateurs numériques. L’approche utilisée à cet effet est algébrique, et la contribution est une étude assez détaillée de l’état de l’art sur le sujet qui a finalement affiné d’avantage la problématique et conduit à de nouvelles pistes plus prometteuses car la question est jusqu’alors partiellement résolue. Plus précisément, les investigations doivent se concentrer désormais sur les commandes dites aux bords ou frontières.D’un point de vue pratique, les résultats obtenus dans cette thèse peuvent être exploités dans l’avenir pour améliorer et facilité les techniques actuelles de simulation et d’analyse en adaptant, par exemple, chaque modèle utilisé aux phénomènes à reproduire. / This thesis was motivated by the need to better understand the connection between the models used in simulation of the power systems dynamics and the phenomena which have to be analyzed or reproduced by the simulation. Indeed, to study and to simulate the behavior of the interconnected power systems, the sophisticated models such as the one of the transmission lines are generally replaced by simple ones. Usually, a dynamic structure of the whole system is not taken into account in a simplification step. As a consequence, experimental validations are generally needed to assess the result of the approximation. For this reason, a structural framework and a systemic viewpoint are proposed to make the solutions more general and more appropriate to the approximation of power systems. First, this allows explaining the link between the distributed parameters model of the transmission lines and the finite dimensional one called π model based on the model reduction. Next, a novel mixed approximation methodology for large-scale dynamic models is proposed which allows one to better rate the dynamics of the system in different situations, and to take into account several practical needs. This methodology is based on a mixture between the modal truncation and the energy of the impulse response so that the dynamical and the physical structures of the system remain unchanged. Moreover, in the context of the automatic control theory, the issue related to a number and a choice of input variables for distributed parameters systems is discussed. To address this issue, an algebraic approach is applied. Here, the main contribution is the detailed study conducted on the basis of the state of the art by which a new way is proposed. Because the issue is not fully solved, more investigations have to be focused on the so called boundary control variables. For practical applications, all the results presented in this study can be exploited to further improve numerical simulations and behavioral studies of large-scale power systems.
15

Commande prédictive distribuée. Approches appliquées à la régulation thermique des bâtiments. / Distributed model predictive control. Approaches applied to building temperature

Morosan, Petru-daniel 30 September 2011 (has links)
Les exigences croissantes sur l'efficacité énergétique des bâtiments, l'évolution du {marché} énergétique, le développement technique récent ainsi que les particularités du poste de chauffage ont fait du MPC le meilleur candidat pour la régulation thermique des bâtiments à occupation intermittente. Cette thèse présente une méthodologie basée sur la commande prédictive distribuée visant un compromis entre l'optimalité, la simplicité et la flexibilité de l'implantation de la solution proposée. Le développement de l'approche est progressif : à partir du cas d'une seule zone, la démarche est ensuite étendue au cas multizone et / ou multisource, avec la prise en compte des couplages thermiques entre les zones adjacentes. Après une formulation quadratique du critère MPC pour mieux satisfaire les objectifs économiques du contrôle, la formulation linéaire est retenue. Pour répartir la charge de calcul, des méthodes de décomposition linéaire (comme Dantzig-Wolfe et Benders) sont employées. L'efficacité des algorithmes distribués proposés est illustrée par diverses simulations. / The increasing requirements on energy efficiency of buildings, the evolution of the energy market, the technical developments and the characteristics of the heating systems made of MPC the best candidate for thermal control of intermittently occupied buildings. This thesis presents a methodology based on distributed model predictive control, aiming a compromise between optimality, on the one hand, and simplicity and flexibility of the implementation of the proposed solution, on the other hand. The development of the approach is gradually. The mono-zone case is initially considered, then the basic ideas of the solution are extended to the multi-zone and / or multi-source case, including the thermal coupling between adjacent zones. Firstly we consider the quadratic formulation of the MPC cost function, then we pass towards a linear criterion, in order to better satisfy the economic control objectives. Thus, linear decomposition methods (such as Dantzig-Wolfe and Benders) represent the mathematical tools used to distribute the computational charge among the local controllers. The efficiency of the distributed algorithms is illustrated by simulations.
16

Design, optimization and validation of start-up sequences of energy production systems. / Conception, optimisation et validation des séquences de démarrage des systèmes de production d'énergie

Tica, Adrian 01 June 2012 (has links)
Cette thèse porte sur l’application des approches de commande prédictive pour l’optimisation des démarrages des centrales à cycles combinés. Il s’agit d’une problématique à fort enjeu qui pose des défis importants. L’élaboration des approches est progressive. Dans une première partie un modèle de centrale est construit et adapté à l’optimisation, en utilisant une méthodologie qui transforme des modèles physiques Modelica conçus pour la simulation en des modèles pour l’optimisation. Cette méthodologie a permis de construire une bibliothèque adaptée à l’optimisation. La suite des travaux porte sur l’utilisation du modèle afin d’optimiser phase par phase les performances du démarrage. La solution proposée optimise, en temps continu, le profil de charge des turbines en recherchant dans des ensembles de fonctions particulières. Le profil optimal est déterminé en considérant que celui-ci peut être décrit par une fonction paramétrée dont les paramètres sont calculés en résolvant un problème de commande optimale sous contraintes. La dernière partie des travaux consiste à intégrer cette démarche d’optimisation à temps continu dans une stratégie de commande à horizon glissant. Cette approche permet d’une part de corriger les dérives liées aux erreurs de modèles et aux perturbations, et d’autre part, d’améliorer le compromis entre le temps de calcul et l’optimalité de la solution. Cette approche de commande conduit cependant à des temps de calcul importants. Afin de réduire le temps de calcul, une structure de commande prédictive hiérarchisée avec deux niveaux, en travaillant à des échelles de temps et sur des horizons différents, a été proposée. / This thesis focuses on the application of model predictive control approaches to optimize the combined cycle power plants start-ups. Generally, the optimization of start-up is a very problematic issue that poses significant challenges. The development of the proposed approaches is progressive. In the first part a physical model of plant is developed and adapted to optimization purposes, by using a methodology which transforms Modelica model components into optimization-oriented models. By applying this methodology, a library suitable for optimization purposes has been built.In the second part, based on the developed model, an optimization procedure to improve the performances of the start-up phases is suggested. The proposed solution optimizes, in continuous time, the load profile of the turbines, by seeking in specific sets of functions. The optimal profile is derived by considering that this profile can be described by a parameterized function whose parameters are computed by solving a constrained optimal control problem. In the last part, the open-loop optimization procedure has been integrated into a receding horizon control strategy. This strategy represents a robust solution against perturbation and models errors, and enables to improve the trade-off between computation time and optimality of the solution. Nevertheless, the control approach leads to a significant computation time. In order to obtain real-time implementable results, a hierarchical model predictive control structure with two layers, working at different time scales and over different prediction horizons, has been proposed.
17

Partitionnement des images hyperspectrales de grande dimension spatiale par propagation d'affinité / Partitioning of large size hyperspectral images by affinity propagation

Soltani, Mariem 17 December 2014 (has links)
Les images hyperspectrales suscitent un intérêt croissant depuis une quinzaine d'années. Elles fournissent une information plus détaillée d'une scène et permettent une discrimination plus précise des objets que les images couleur RVB ou multi-spectrales. Bien que les potentialités de la technologie hyperspectrale apparaissent relativement grandes, l'analyse et l'exploitation de ces données restent une tâche difficile et présentent aujourd'hui un défi. Les travaux de cette thèse s'inscrivent dans le cadre de la réduction et de partitionnement des images hyperspectrales de grande dimension spatiale. L'approche proposée se compose de deux étapes : calcul d'attributs et classification des pixels. Une nouvelle approche d'extraction d'attributs à partir des matrices de tri-occurrences définies sur des voisinages cubiques est proposée en tenant compte de l'information spatiale et spectrale. Une étude comparative a été menée afin de tester le pouvoir discriminant de ces nouveaux attributs par rapport aux attributs classiques. Les attributs proposés montrent un large écart discriminant par rapport à ces derniers et par rapport aux signatures spectrales. Concernant la classification, nous nous intéressons ici au partitionnement des images par une approche de classification non supervisée et non paramétrique car elle présente plusieurs avantages: aucune connaissance a priori, partitionnement des images quel que soit le domaine applicatif, adaptabilité au contenu informationnel des images. Une étude comparative des principaux classifieurs semi-supervisés (connaissance du nombre de classes) et non supervisés (C-moyennes, FCM, ISODATA, AP) a montré la supériorité de la méthode de propagation d'affinité (AP). Mais malgré un meilleur taux de classification, cette méthode présente deux inconvénients majeurs: une surestimation du nombre de classes dans sa version non supervisée, et l'impossibilité de l'appliquer sur des images de grande taille (complexité de calcul quadratique). Nous avons proposé une approche qui apporte des solutions à ces deux problèmes. Elle consiste tout d'abord à réduire le nombre d'individus à classer avant l'application de l'AP en agrégeant les pixels à très forte similarité. Pour estimer le nombre de classes, la méthode AP utilise de manière implicite un paramètre de préférence p dont la valeur initiale correspond à la médiane des valeurs de la matrice de similarité. Cette valeur conduisant souvent à une sur-segmentation des images, nous avons introduit une étape permettant d'optimiser ce paramètre en maximisant un critère lié à la variance interclasse. L'approche proposée a été testée avec succès sur des images synthétiques, mono et multi-composantes. Elle a été également appliquée et comparée sur des images hyperspectrales de grande taille spatiale (1000 × 1000 pixels × 62 bandes) avec succès dans le cadre d'une application réelle pour la détection des plantes invasives. / The interest in hyperspectral image data has been constantly increasing during the last years. Indeed, hyperspectral images provide more detailed information about the spectral properties of a scene and allow a more precise discrimination of objects than traditional color images or even multispectral images. High spatial and spectral resolutions of hyperspectral images enable to precisely characterize the information pixel content. Though the potentialities of hyperspectral technology appear to be relatively wide, the analysis and the treatment of these data remain complex. In fact, exploiting such large data sets presents a great challenge. In this thesis, we are mainly interested in the reduction and partitioning of hyperspectral images of high spatial dimension. The proposed approach consists essentially of two steps: features extraction and classification of pixels of an image. A new approach for features extraction based on spatial and spectral tri-occurrences matrices defined on cubic neighborhoods is proposed. A comparative study shows the discrimination power of these new features over conventional ones as well as spectral signatures. Concerning the classification step, we are mainly interested in this thesis to the unsupervised and non-parametric classification approach because it has several advantages: no a priori knowledge, image partitioning for any application domain, and adaptability to the image information content. A comparative study of the most well-known semi-supervised (knowledge of number of classes) and unsupervised non-parametric methods (K-means, FCM, ISODATA, AP) showed the superiority of affinity propagation (AP). Despite its high correct classification rate, affinity propagation has two major drawbacks. Firstly, the number of classes is over-estimated when the preference parameter p value is initialized as the median value of the similarity matrix. Secondly, the partitioning of large size hyperspectral images is hampered by its quadratic computational complexity. Therefore, its application to this data type remains impossible. To overcome these two drawbacks, we propose an approach which consists of reducing the number of pixels to be classified before the application of AP by automatically grouping data points with high similarity. We also introduce a step to optimize the preference parameter value by maximizing a criterion related to the interclass variance, in order to correctly estimate the number of classes. The proposed approach was successfully applied on synthetic images, mono-component and multi-component and showed a consistent discrimination of obtained classes. It was also successfully applied and compared on hyperspectral images of high spatial dimension (1000 × 1000 pixels × 62 bands) in the context of a real application for the detection of invasive and non-invasive vegetation species.
18

Les effets de la crise financière et bancaire de 2007-2008 sur les comportements des banques : ces effets ont-ils changé les comportements des banques ? / The effects of the financial and banking crisis of 2007-2008 on banks behaviors : did these effects change banks behaviors ?

Dahmani, Mohammed 08 December 2015 (has links)
La problématique de la thèse : en quoi les effets de la crise financière et bancaire de 2007-2008 ont influé les comportements de banques et en quoi ces derniers consistent-ils ? Pour ce faire, nous avons montré, d’abord, que le bilan et le compte de résultats sont des outils explicatifs de comportements stratégiques et opérationnels de banques. Vu la responsabilité particulière des banques de grande taille dans cette crise, nous avons exploité les données des 200 premières banques mondiales figurant dans le classement de 2006 (avant crise) et de 2012 (après crise) extraites de la base «The Banker» en utilisant, ensuite, l’analyse factorielle exploratoire pour découvrir les facteurs latents qui influencent leurs comportements dans une logique de statique comparative. Les résultats obtenus montrent que la crise a changé ces comportements. Au plan de comportement stratégique, les banques européennes s’orientent, en 2012, vers le modèle de banque de «détail pur» alors qu’en 2006 elles se répartissaient sur 3 modèles: «détail pur»; «mixtes»; «marché». Pour les banques de l’Amérique du Nord et de l’Asie-Pacifique, déjà spécialisées dans le «détail pur» en 2006, le restent pour 2012. Au plan de comportement opérationnel, les banques européennes passent d’une focalisation sur la rentabilité vers le renforcement de la suffisance de capital. Les banques nord-américaines et de l’Asie–Pacifique, focalisées sur l’activité en 2006, s’orientent sur la rentabilité en 2012. En conclusion, 2 recommandations pour les régulateurs financiers : s’assurer que la tendance vers le modèle de banque de «détail pur» soit de long terme et accorder une attention accrue à la taille du bilan / The thesis problem: how the effects of the financial and banking crisis of 2007-2008 have influenced the behavior of banks and what do they consist of ? To do this, we showed, first, that the balance sheet and income statement are good explanatory tools of strategic and operational behavior of banks. Due to the special responsibility of the large banks in this crisis, we used data of the top 200 global banks listed in the 2006 (pre-crisis) and 2012 (post-crisis) classifications, retrieved from the database "The Banker". We used the exploratory factor analysis to discover the latent factors which influence the banks behaviors, in a comparative static logic. The results show that this crisis has actually changed these behaviors. From the strategic positioning perspective, the trend of the European banks after the crisis is the "retail-funded" banking model. In 2006, the positioning was heterogeneous with a "cocktail" of "retail-funded", "wholesale-funded" and "trading" banks. For the North American and Asia-Pacific banks, which was already specialized in the "retail-funded" in 2006, will remain so for 2012. In terms of operational behavior, European banks pass from a strong focus on profitability, before the crisis, to a reinforcement of capital adequacy, after the crisis. The banks of North America and Asia-Pacific, which were focused on the activity, before the crisis, will give more importance to the profitability after the crisis. In conclusion, two recommendations for the financial regulators : ensure that the trend in matter of strategic positioning of the banks is oriented to the “retail-funded” model and pay special attention to the size of the balance sheet.
19

Sur l'extensibilité parallèle de solveurs linéaires hybrides pour des problèmes tridimensionels de grandes tailles

Haidar, Azzam 23 June 2008 (has links) (PDF)
La résolution de très grands systèmes linéaires creux est une composante de base algorithmique fondamentale dans de nombreuses applications scientifiques en calcul intensif. La résolution per- formante de ces systèmes passe par la conception, le développement et l'utilisation d'algorithmes parallèles performants. Dans nos travaux, nous nous intéressons au développement et l'évaluation d'une méthode hybride (directe/itérative) basée sur des techniques de décomposition de domaine sans recouvrement. La stratégie de développement est axée sur l'utilisation des machines mas- sivement parallèles à plusieurs milliers de processeurs. L'étude systématique de l'extensibilité et l'efficacité parallèle de différents préconditionneurs algébriques est réalisée aussi bien d'un point de vue informatique que numérique. Nous avons comparé leurs performances sur des systèmes de plusieurs millions ou dizaines de millions d'inconnues pour des problèmes réels 3D .

Page generated in 0.219 seconds