• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2047
  • 972
  • 289
  • 8
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 3280
  • 1468
  • 668
  • 664
  • 573
  • 552
  • 371
  • 317
  • 293
  • 275
  • 275
  • 248
  • 223
  • 214
  • 212
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Efficient Content-based Retrieval in Parallel Databases of Images

Manjarrez Sanchez, Jorge 26 October 2009 (has links) (PDF)
Cette thèse porte sur le traitement des requêtes par similarité sur les données de haute dimensionnalité, notamment multimédias, et, parmi elles, les images plus particulièrement. Ces requêtes, notamment celles des k plus proches voisins (kNN), posent des problèmes de calcul de par la nature des données elles-mêmes et de la taille de la base des données. Nous avons étudié leurs performances quand une méthode de partitionnement est appliquée sur la base de données pour obtenir et exploiter des classes. Nous avons proposé une taille et un nombre optimaux de ces classes pour que la requête puisse être traitée en temps optimal et avec une haute précision. Nous avons utilisé la recherche séquentielle comme base de référence. Ensuite nous avons proposé des méthodes de traitement de requêtes parallèles sur une grappe de machines. Pour cela, nous avons proposé des méthodes d'allocation des données pour la recherche efficace des kNN en parallèle. Nous proposons de même, un nombre réduit de noeuds sur la grappe de machines permettant néanmoins des temps de recherche sous-linéaires et optimaux vis-à-vis des classes déterminées précédemment. Nous avons utilisé des donnés synthétiques et réelles pour les validations pratiques. Dans les deux cas, nous avons pu constater des temps de réponse et une qualité des résultats supérieurs aux méthodes existantes, lesquelles, au-delà d'un faible nombre des dimensions, deviennent inefficaces.
102

Vers l'OLAP sémantique pour l'analyse en ligne des données complexes

Loudcher, Sabine 29 June 2011 (has links) (PDF)
L'analyse en ligne OLAP permet une navigation interactive dans les données, une visualisation rapide de l'information et une exploration de la structure multidimensionnelle des données. Une des limites est de se restreindre à des aspects exploratoires et navigationnels. De plus, avec l'avènement des données complexes (données multi-format et/ou multi-structure et/ou multi-source et/ou multi-modale et/ou multi-version), l'analyse en ligne doit s'adapter à la nature spécifique de ces données tout en gardant l'esprit de l'OLAP. Les opérateurs OLAP sont définis pour des données classiques et sont souvent inadaptés quand il s'agit de données complexes par exemple composées de textes, images, son ou vidéos. Les limites de l'OLAP ainsi que la spécificité des données complexes nécessitent une évolution ou adaptation de l'OLAP. Il devient nécessaire de : (1) enrichir les possibilités de l'analyse OLAP en la dotant de nouvelles possibilités ; (2) créer une analyse en ligne adaptée aux données complexes ; (3) faire évoluer l'OLAP vers une analyse sémantique des données. Dans cette vaste problématique, nous choisissons de traiter les questions d'agrégation et visualisation des données complexes, de réorganisation du cube pour identifier des régions d'analyse intéressantes, et d'étendre l'OLAP à des possibilités d'explication et de prédiction. Pour toutes ces questions, nous essayons également de tenir compte de la sémantique véhiculée par les données. Pour apporter des premières solutions, nous orientons vers une combinaison des principes de l'OLAP, de la fouille de données et de la recherche d'information. Afin d'introduire une analyse explicative dans l'OLAP, nous faisons une recherche guidée de règles d'association dans le cube. Cela nous conduit à modifier la définition du support et de la confiance d'une règle. Les arbres de régression nous permettent de proposer à l'utilisateur de faire de la prédiction dans le cube et d'avoir ainsi une démarche de type What If Analysis. Pour l'analyse des données complexes, deux méthodes factorielles (AFC et ACM) rendent possible la visualisation des faits dans un cube et la détection de régions intéressantes en réorganisant les dimensions du cube. Nous proposons également une agrégation sémantique des faits et une nouvelle hiérarchie de dimension construite automatiquement grâce aux principes d'une méthode de classification (CAH). Nos propositions sont une première démonstration de la faisabilité de combiner l'OLAP à d'autres techniques comme la fouille de données et la recherche d'information pour faire significativement évoluer l'analyse en ligne et s'adapter aux données complexes. L'OLAP a commencé à s'adapter à leur structure et à leur spécificité (XOLAP - XML OLAP, SOLAP - spatial OLAP). Mais il faut aller au delà et nous pensons qu'un des défis est d'extraire et d'analyser (en ligne) la sémantique contenue dans les données complexes. Ce point constitue un véritable verrou scientifique mais qui est que partiellement abordé par la communauté scientifique. Il faudrait également identifier tous les problèmes posés par les données complexes et ce quels que soient leur nature, contexte ou spécificités. Nous voulons poursuivre nos travaux dans cette voie et faire évoluer l'OLAP vers une nouvelle génération d'analyse en ligne : l'OLAP sémantique. Les problèmes majeurs à traiter seront comment : (1) modéliser toutes les formes de données complexes, leur sémantique et leurs liens ; (2) analyser en ligne les données complexes ; (3) Intégrer les connaissances de l'utilisateur dans le processus de l'analyse ?
103

Développement d'une base de données bioinformatique spécialisée GBank UQAM

Djema, Rabah January 2008 (has links) (PDF)
La base de données GBank de l'UQAM a été développée afin de pallier certains problèmes majeurs posés par l'utilisation de la base de données GenBank du NCBI. En effet, les problèmes suivants ont déclenché le développement de GBank UQAM: 1-Certaines requêtes complexes utilisées par les bioinformaticiens sont lentes en raison notamment de la taille énorme et toujours croissante de la base de données. 2-Les bioinformaticiens de l'UQAM dépendent entièrement de la base de NCBI. En cas de sa panne, ils n'ont pas de possibilité d'y accéder. 3-Les utilisateurs n'ont aucun contrôle sur la base de données GenBank. En plus, ils dépendent entièrement des mises à jour du NCBI. 4-Les outils de GenBank pour le filtrage des données ne sont pas toujours adaptés aux besoins des bioinformaticiens intéressés par l'analyse phylogénétique. Ceci mène les bioinformaticiens de se soumettre au mode de fonctionnement de la base GenBank. GBank UQAM se voit donc un sous-ensemble de la base GenBank international, qui résout en totalité ou partiellement les problèmes posés ci-dessus. Ceci a été rendu possible notamment grâce à l'utilisation de la base de données Oracle 10g qui offre plusieurs caractéristiques intéressantes. La nouvelle base de l'UQAM permettrait donc: 1-d'Améliorer le temps de réponse: Étant traité localement, nous pouvons offrir un temps d'accès nettement meilleur. 2-de Mieux contrôler les données: Nous pouvons organiser les données selon nos besoins et donc rendre la base de données plus optimale. En effet, maintenant nous sommes capables de filtrer les données selon nos besoins spécifiques ce qui augmente nettement notre productivité. 3-d'Optimiser la base de données: Avec des temps de réponses améliorés et une plus grande maniabilité dans la gestion de la base de données de l'UQAM, il nous est possible d'optimiser continuellement notre base de données pour la rendre plus évolutive et plus adaptée à nos besoins futurs. Afin de mieux exploiter la nouvelle base de données, nous avons élaboré une interface utilisateur facile et conviviale qui répond à tous les besoins des utilisateurs (bioinformaticiens) d'une base de données bioinformatique. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : GBank UQAM, Bioinformatique, Oracle10g, Performances, T-REX.
104

L'exploitation de l'auto-similarité pour la prédiction du trafic Internet

Chtioui, Maher January 2006 (has links) (PDF)
Les recherches qui se font pour modéliser l'évolution de trafic Internet sur une grande échelle de temps et pour développer des modèles de prédictions à court et à long terme constituent les domaines les plus intéressés par les chercheurs en technologies de l'information. En effet, pour compléter et affiner la caractérisation du trafic introduite par les premières études et recherches, il est fort utile de modéliser de façon nouvelle et efficace le trafic Internet. Jusqu'à présent, les ingénieurs et chercheurs en réseau utilisaient des modèles Mathématiques et Statistiques pour modéliser les processus de trafic. Pour ce, il faudrait proposer de nouveaux modèles de trafic réalistes. On peut notamment citer le trafic réseau le plus réaliste en intégrant les notions d'auto-similarité et de dépendance à long terme LRD. En utilisant des outils mathématiques, on a commencé par chercher le type du processus à partir des historiques de l'information et savoir le type de trafic pour des différentes échelles de temps, ceci exige une grande collection de mesures sur une longue durée de temps. Ce que nous a permit de montrer que le trafic dans un réseau Internet est exposé à des fortes périodicités et des variabilités aux multiples échelles de temps. Une autre contribution importante, décrite en détail dans ce mémoire, consiste à utiliser les résultats des simulations de trafic Internet plus réalistes afin d'appliquer des algorithmes de prédiction sur ces séries simulées. Quatre algorithmes ont été testés dans ce cadre intégrant des modèles mathématiques afin d'offrir des preuves et des validations du bon fonctionnement des solutions proposées, pour en sortir à la fin, le meilleur algorithme qui permet de donner un taux d'erreurs minimum ainsi qu'une grande simplicité dans son application.
105

Étude sur l'observabilité de l'atmosphère et l'impact des observations sur les prévisions météorologiques

Lupu, Cristina 08 1900 (has links) (PDF)
L'assimilation de données est une composante essentielle du système de prévision numérique du temps et consiste à trouver un état de l'atmosphère, l'analyse, qui est compatible avec les différentes sources d'observations, la dynamique de l'atmosphère et un état antérieur du modèle. Dans ce processus, il est important de bien caractériser l'erreur associée à chaque source d'information (observations, ébauche) afin de mieux décrire les conditions initiales. La matrice de covariance des erreurs de prévisions joue un rôle clé dans le processus d'assimilation de données car elle détermine la nature de la correction apportée par l'analyse. Cette matrice étant trop grande pour être représentée explicitement, elle est modélisée sous la forme d'une suite d'opérateurs relativement simples. Les modèles de covariance d'erreurs de prévisions utilisées dans un 3D-Var sont généralement stationnaires et ne considèrent pas des variations dues à la nature de l'écoulement. En présence d'instabilité, une petite erreur dans les conditions initiales connaîtra une croissance rapide. Pour contrôler cette croissance d'erreur à courte échéance, il est nécessaire d'apporter des corrections à l'analyse dans des régions localisées selon une structure spatiale très particulière. L'assimilation adaptative 3D-Var considère une formulation différente des covariances d'erreur de prévision qui permet d'inclure les fonctions de structure basées sur des fonctions de sensibilité a posteriori et a priori définissant la structure de changements aux conditions initiales qui ont le plus d'impact sur une prévision d'échéance donnée. Dans le cadre de cette thèse, des fonctions de sensibilité sont introduites comme fonctions de structure dans l'assimilation 3D-Var. La définition d'une fonction de structure appropriée pour un système d'assimilation vise à simultanément concorder aux observations disponibles et améliorer la qualité des prévisions. L'observabilité des fonctions de structure par les observations est tout d'abord présentée et analysée dans le cadre plus simple d'une analyse variationnelle 1D (1D-Var) pour être ensuite introduite dans le 3D-Var d'Environnement Canada. L'amplitude de la correction est caractérisée par un seul paramètre défini par l'ensemble des observations disponibles. Les résultats montrent que si le rapport entre l'amplitude du signal et l'erreur d'observation est très faible, les observations ne sont pas en mesure de détecter les instabilités atmosphériques qui peuvent croître très rapidement. Dans cette perspective, l'assimilation pourra seulement extraire l'information contenue dans les structures atmosphériques déjà évoluées. Dans un deuxième temps, nous présentons une nouvelle méthode permettant d'estimer l'impact des observations dans les analyses 3D/4D-Var basé sur le Degrees of freedom for signal. Le contenu en informations des observations est calculé en employant les statistiques a posteriori, à partir des écarts des observations à l'ébauche et à l'analyse. Les résultats montrent que le DFS estimé en utilisant les statistiques a posteriori est identique avec celui obtenu à partir des statistiques a priori. Ce diagnostic permet de comparer l'importance de différents types d'observations pour les expériences d'assimilation 3D et 4D-Var incluant toutes les observations assimilées opérationnellement. En particulier, cette étude s'intéresse à l'évaluation du réseau canadien d'observations et il est appliqué aux Observing System Experiments (OSEs) effectués à Environnement Canada pour les mois de janvier et février 2007. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Assimilation de données, Dépendance à l'écoulement, 3D-Var, DFS, OSEs.
106

Methodologie et structuration d'un outil de decouverte de connaissances base sur la litterture biomedicale : une application basee sur le MeSH

Pierret, Jean-Dominique 28 February 2006 (has links) (PDF)
L'information disponible dans les bases de données bibliographiques est une information datée, validée par un processus long qui la rend peu innovante. Dans leur mode d'exploitation, les bases de données bibliographiques sont classiquement interrogées de manière booléenne. Le résultat d'une requête est donc un ensemble d'informations connues qui n'apporte en lui-même aucune nouveauté. <br />Pourtant, en 1985, Don Swanson propose une méthode originale pour extraire de bases de donnés une information innovante. Son raisonnement est basé sur une exploitation systématique de la littérature biomédicale afin de dégager des connexions latentes entre différentes connaissances bien établies. Ses travaux montrent le potentiel insoupçonné des bases bibliographiques dans la révélation et la découverte de connaissances. Cet intérêt ne tient pas tant à la nature de l'information disponible qu'à la méthodologie utilisée. Cette méthodologie générale s'applique de façon privilégiée dans un environnement d'information validée et structurée ce qui est le cas de l'information bibliographique. Nous proposons de tester la robustesse de la théorie de Swanson en présentant les méthodes qu'elle a inspirées et qui conduisent toutes aux mêmes conclusions. Nous exposons ensuite, comment à partir de sources d'information biomédicales publiques, nous avons développé un système de découverte de connaissances basé sur la littérature.
107

Banque de données et banc d'essai en détection de changement

Goyette, Nil January 2013 (has links)
Les caméras de vidéosurveillance sont de plus en plus présentes dans notre société, à un point tel que les séquences vidéo sont souvent enregistrées sans être regardées par des agents de sécurité. Il convient donc de créer des algorithmes qui vont effectuer le même travail d'analyse que des surveillants humains. Bien qu'il y ait des inquiétudes au niveau de la vie privée, on peut envisager maintes applications, toutes au service de la société. La détection de changement est à la base de bon nombre d'applications en analyse vidéo. Elle consiste à détecter tout changement intéressant dans une séquence capturée par une caméra fixe. Bien que les méthodes gèrent mieux les difficultés inhérentes à ce problème, il n'y a pas encore de solution définitive à la détection de changement. Avec des milliers de méthodes disponibles dans la littérature, il est présentement très difficile, voire impossible, de comparer ces méthodes et d'identifier lesquelles répondent mieux aux différents défis. Les auteurs font face au même problème lorsqu'ils désirent se comparer à l'état de l'art. Pour faire face à cette situation, nous avons créé un banc d'essai en détection de changement. Ceci inclut la création d'une banque de données d'envergure, d'une méthode d'évaluation quantitative équitable et d'un site web pour consulter le classement et télé-charger les résultats de segmentation des compétiteurs. Des outils et de la documentation pour utiliser ces derniers sont aussi offerts, le tout accessible gratuitement et simplement sur Internet. Comme le but est de devenir le standard de facto , le projet est suffisamment complet et intéressant pour convaincre la communauté scientifique de l'adopter. Ce faisant, nous avons créé notre propre programme d'annotation libre, rassemblé et programmé une dizaine de méthodes de détection de changement, puis déterminé les meilleures méthodes et les difficultés auxquelles la communauté devrait s'attaquer au cours des prochaines années. L'atelier organisé à CVPR 2012, le grand nombre de soumissions et le bon achalandage du site sont des indicateurs encourageants quant à la réussite de notre travail. Il est encore trop tôt pour confirmer quoi que ce soit car l'adoption d'un nouveau standard prend du temps, mais notre pronostic est positif.
108

Evaluation d'une mesure de similitude en classification supervisée : application à la préparation de données séquentielles

Ferrandiz, Sylvain 23 October 2006 (has links) (PDF)
En phase de préparation d'un processus de fouille de données, une part importante<br />du travail est consacrée à la construction et à la sélection des variables descriptives.<br />L'approche filtre univariée usuellement adoptée nécessite l'emploi d'une méthode<br />d'évaluation d'une variable. Nous considérons la question de l'évaluation supervisée d'une<br />variable séquentielle. Pour résoudre ce problème, nous montrons qu'il suffit de résoudre<br />un problème plus général : celui de l'évaluation supervisée d'une mesure de similitude.<br /><br />Nous proposons une telle méthode d'évaluation. Pour l'obtenir, nous formulons le<br />problème en un problème de recherche d'une partition de Voronoi informative. Nous<br />proposons un nouveau critère d'évaluation supervisée de ces partitions et une nouvelle<br />heuristique de recherche optimisée. Le critère prévient automatiquement le risque de surapprentissage<br />et l'heuristique trouve rapidement une bonne solution. Au final, la méthode<br />réalise une estimation non paramétrique robuste de la densité d'une variable cible catégorielle<br />conditionnellement à une mesure de similitude définie à partir d'une variable descriptive.<br /><br />La méthode a été testée sur de nombreux jeux de données. Son utilisation permet<br />de répondre à des questions comme : quel jour de la semaine ou quelle tranche horaire<br />sur la semaine discrimine le mieux le segment auquel appartient un foyer à partir de sa<br />consommation téléphonique fixe ? Quelle série de mesures permet de quantifier au mieux l'appétence à un nouveau service ?
109

La protection des données à caractère personnel face aux usages illicites, déloyaux et frauduleux / The protection of personal data against illicit, unfair and fraudulent use

Mattatia, Fabrice 28 September 2010 (has links)
La généralisation des services numériques facilite la vie de leurs utilisateurs en leur offrant la possibilité d’accéder aux informations, aux démarches, ou aux loisirs, de n’importe quel endroit, à n’importe quelle heure. Cette évolution s’accompagne d’une augmentation de la collecte de données personnelles, en vue d’une part de proposer à l’utilisateur le service le plus adapté à ses besoins, et d’autre part de financer les services gratuits par de la publicité ciblée. Il en résulte corrélativement un risque croissant de détournement de finalité ou de divulgation de ces données, que ce soit le fait d’entreprises cherchant à maximiser leurs profits, ou de cybercriminels désireux d’exploiter ces données pour commettre des infractions. Les principes européens de protection des données personnelles sont repris en France dans la loi Informatique et Libertés. L’étude de la jurisprudence montre que la protection de ces principes par l’ordre judiciaire est relativement inadaptée, les préjudices étant souvent insuffisants pour motiver une action, et la justice n’ayant pas les moyens d’investigation proportionnés à des délits très nombreux et dont l’auteur peut agir depuis l’étranger. Une telle situation appelle le recours à un régulateur spécialisé comme la CNIL, qui jouit de la faculté d’accumuler une expertise dont l’administration centrale est dépourvue, et de pouvoir s’adapter rapidement aux évolutions de son secteur. Une implication des différents acteurs, dans le cadre d’une régulation participative, est également souhaitable pour permettre une diffusion maximale des bonnes pratiques, et prévenir en amont les atteintes aux données personnelles. Le dialogue entre prestataires et utilisateurs constitue également un nouveau mode de régulation. / The widespread digital services give the user the possibility to access to information, procedures or entertainment, anywhere, at any time. This evolution is accompanied by an increase in the collection of personal data, in order, on the one hand, to offer the user the service most suited to its needs, and on the other hand, to fund the free services by behavioral marketing. This results in an ever-increasing risk of misuse or disclosure of such data, whether made by firms seeking to maximize their profits, or by cybercriminals seeking to exploit these data to commit frauds. The study of case law shows that the protection of the European data protection principles, as transposed in the French Data Protection Act, by the judiciary is relatively inadequate: prejudice is often insufficient to motivate action, offenses are too numerous, and the fraudster can act from abroad. Such a situation requires the use of a specialized regulator as the CNIL (French data protection authority), which has the ability to accumulate expertise and to adapt quickly to changes in its sector. Moreover, the involvement of the different actors in the frame of co-regulation or of self-regulation, is also desirable, to allow for a maximum dissemination of good practices and to prevent protection breaches. Digital services can also deal directly with their users.
110

Les relations de long terme entre la notation des banques par les agences et leur valorisation

Dongmo-Kengfack, José Nadège 02 December 2014 (has links)
La particularité et l’originalité de cette recherche résident dans notre choix d’étudier l’influence à long terme de la notation financière sur la valeur des banques plutôt que son impact immédiat sur les cours boursiers des actions. Le contexte de cette recherche est la crise financière de 2007-2008 durant laquelle les valeurs bancaires ont considérablement chuté. En effet, cette crise a renouvelé l’intérêt d’étudier la notation financière et son influence sur les entreprises notées, en particulier lorsqu’il s’agit des banques. Notre interrogation centrale est de savoir comment et dans quelles mesures les notations d’agences contribuent à expliquer la valorisation des banques à long terme. La notation des banques par les agences influence-t-elle leur performance, leur gouvernance, leur structure de financement, et par conséquent, leur valeur? Est-elle réciproquement influencée par la valorisation des banques sur le marché? Notre recherche s’inscrit donc dans le prolongement des travaux qui montrent l’influence de la note sur la valeur des entreprises, mais notre démarche est différente. D'une part, nous nous concentrons uniquement sur le secteur bancaire qui est particulier, et où l’influence de la notation peut être différente et plus forte que sur les entreprises ou groupes industriels. D'autre part, nous mobilisons l’approche financière de la gouvernance qui met en évidence le lien entre la gouvernance et la valorisation des entreprises (Charreaux G., 1997 ; Gompers et al., 2003 ; Rob Bauer et al., 2003 ; Barth, Caprio et Levine, 2004 ; Levine, 2004), et la théorie néo-institutionnelle développée par Meyer et Rowan (1977), Scott et de Meyer (1983), DiMaggio et Powell (1991, 1997) et North (1990). Cette deuxième théorie met en évidence l’influence des institutions sur les organisations, leur gestion et leur performance. En combinant ces deux approches, nous explorons et analysons les voies par lesquelles les notations des agences peuvent influencer la valeur des entreprises bancaires à long terme, notamment en les incitant à se conformer à un modèle de bonnes pratiques sous-jacent aux critères que les agences de notation affichent pour les évaluer. Nous cherchons à valider empiriquement cette analyse au travers d'une approche quantitative et économétrique, en utilisant des données internationales tirées des bases Bloomberg, Bankscope et Fininfo relatives à 161 grandes banques de 18 pays, sur les années 2001 à 2010. Après avoir construit des indicateurs homogènes de notation, la validation de nos hypothèses de recherche repose sur des analyses bivariées, des régressions sur les données de panel, des tests de causalité de Granger et un modèle Logit polytomique. Nos résultats montrent qu’un cran supplémentaire, c’est-à-dire une dégradation d'un cran de la note de solidité financière semble entraîner une diminution significative de la valeur des banques. Ce lien n’est pas significatif en période de crise. L’effet de la notation de crédit sur la valorisation est peu significatif. Cependant, les tests de causalité de Granger montrent une boucle rétroactive entre la notation de crédit, le coût moyen pondéré des dettes et la taille des banques. Les résultats d'un modèle Logit polytomique montrent que les notes de solidité financière attribuées par les agences ne sont influencées par les indicateurs de valorisation des banques qu'après le déclenchement de la crise des « Subprimes » couverte par notre période d’étude (en 2008 et 2009). / The distinctiveness and uniqueness of this research lies in the fact that it studies the long-term effects of credit rating on the value of banks rather than its immediate impact on the shares’ market price. The context of this research is the subprime crisis period of 2007-2008 during which banking stocks declined dramatically. This crisis caused a reawakening of interest in the study of credit rating and its impact on rated companies, especially when the rated companies are banks. The central question is to know how and to what extent credit rating helps to explain the long-term valuation of banks. How does the bank rating affect their performance, their governance, their capital structure, and therefore their value? Reciprocally, how does banks valuation impact their credit ratings? Our research follows the path of previous studies showing the impact of credit rating on the value of companies, but our approach is different. On one hand we focus only on the banking sector which is particular, and where the impact of credit rating can be different and stronger than on the other companies or industrial groups. On other hand we mobilize corporate governance approach that highlights the link between governance and valuation (Charreaux G., 1997; Gompers et al., 2003, Rob Bauer et al., 2003; Barth, Caprio and Levine, 2004; Levine, 2004). We also mobilize the neo-institutional theory developed by Meyer and Rowan (1977), Scott and Meyer (1983), DiMaggio and Powell (1991, 1997) and North (1990) that highlights the impact of institutions on organizations, their management and performance. These two approaches allow us to describe and analyze the ways and means by which credit rating can impact banks values in the long term, particularly by inspiring banks to use the “best practices” disseminated in the rating methodologies for banks. We try to empirically validate this analysis through a quantitative and econometric approach, using data from international databases such as Bloomberg, Bankscope and Fininfo about 161 large banks from 18 countries over the period 2001 to 2010. After building uniform credit rating indicators, we use bivariate analysis, regressions on panel data, Granger causality tests and multinomial logit model to test our assumptions. Our results show that one notch downgrade of a bank financial strength rating seems to cause a significant decrease of its valuation. This impact is not significant in a crisis period. The effect of the issuer credit rating on bank valuation is not significant. However, Granger causality tests show a feedback loop between the issuer credit rating, the weighted average cost of debt and the size of banks. The results of a logit multinomial model show that the bank financial strength ratings assigned by the rating agencies are influenced by the bank valuation indicators only for the years 2008 and 2009.

Page generated in 0.0373 seconds