• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1089
  • 213
  • 47
  • 25
  • 17
  • 13
  • 12
  • 10
  • 7
  • 5
  • 5
  • 1
  • 1
  • 1
  • Tagged with
  • 1495
  • 734
  • 538
  • 414
  • 391
  • 321
  • 309
  • 217
  • 179
  • 176
  • 154
  • 150
  • 146
  • 124
  • 115
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
651

L'IDENTITE INTERCULTURELLE DANS L'ORGANISATION DE SALARIES LORRAINS D'UNE MULTINATIONLE SUD-COREENNE. CONTEXTUALISATION REPRESENTATIONNELLE DES RELATIONS INTERGROUPES /

TISSERANT, PASCAL. FISCHER, GUSTAVE NICOLAS.. January 1998 (has links) (PDF)
Thèse de doctorat : Psychologie : Metz : 1998. / 1999METZ001L. 535 ref.
652

Conception d'un modèle de maturité des capacités organisationnelles spécifiques à la gestion des connaissances : application à deux centres hospitaliers

Booto Ekionea, Jean-Pierre January 2008 (has links) (PDF)
La présente thèse a pour objectif la conception d'un modèle de maturité des capacités organisationnelles spécifiques à la gestion des connaissances (MMCOSGC). Elle constitue une recherche fondamentale parce qu'elle cherche à comprendre les fondements du concept des capacités organisationnelles spécifiques à la gestion des connaissances (COSGC). Il s'agit en même temps d'une recherche appliquée, parce qu'elle utilise le MMCOSGC dans le but d'évaluer sa capacité à poser un diagnostic acceptable des COSGC dans une organisation quelconque. En effet, depuis une vingtaine d'années, les gestionnaires considèrent que certaines ressources et certaines capacités spécifiques des entreprises s'avèrent cruciales pour expliquer la performance d'une entreprise (Amit et Schoemaker, 1993). Un des défis à relever, pour les organisations, est d'identifier, de développer, de protéger et de déployer ces ressources dans une direction qui assure à l'entreprise l'avantage concurrentiel et la performance organisationnelle. En se basant sur la théorie des ressources pour identifier la connaissance comme ressource stratégique (Barney, 1991), la présente thèse combine les perspectives de la théorie du cycle de vie et de la téléologie pour expliquer le processus du développement des COSGC. Ainsi, la progression à travers différents niveaux de maturité se base sur la théorie du cycle de vie qui adopte la croissance organique comme unité heuristique afin d'expliquer les changements des comportements organisationnels et leur progression comme un processus. Or, depuis une vingtaine d'années, la littérature en gestion des connaissances (Abou-Zeid, 2002; Asoh et al, 2003) s'est surtout penchée sur l'alignement des stratégies de gestion des connaissances aux stratégies d'affaires afin de démontrer que cet alignement permettait d'atteindre la performance d'affaires. Cependant, Peppart et Ward (2004) constatent que l'alignement seul ne suffit pas pour atteindre la performance d'affaires, mais que c'est plutôt le développement des capacités organisationnelles spécifiques à une ressource qui contribue effectivement à atteindre la performance d'affaires. C'est pour cette raison que la présente thèse se penche sur le développement des capacités organisationnelles spécifiques à la gestion des connaissances, en tenant compte de trois dimensions: infrastructures, processus et compétences des personnes. Pour y arriver, le plan de la thèse respecte chaque étape de la méthodologie SSM (Soft System Methodology), le consensus sur les concepts clés des COSGC par la méthode Delphi et valide le MMCOSGC à l'aide de deux études de cas. Ainsi, les principaux résultats de la présente étude sont: 1-l'obtention du premier consensus au tour des concepts définissant les COSGC à l'aide de la méthode Delphi; 2-la conception du MMCOSG tenant compte des trois dimensions des COSGC issus du consensus Delphi; 3-l'application du MMCOSGC à deux organisations de santé qui prouve sa capacité à poser un diagnostic acceptable des COSGC au sein d'une organisation. Enfin, les résultats de la présente étude pourraient bien intéresser aussi bien les chercheurs que les praticiens, les gestionnaires et les décideurs au sein des organisations. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Capacités organisationnelles, Gestion des connaissances, Modèle de maturité, Méthodologie SSM, Méthode Delphi, Étude de cas.
653

Algorithmique du Network Calculus

Jouhet, Laurent 07 November 2012 (has links) (PDF)
Le Network Calculus est une théorie visant à calculer des bornes pire-cas sur les performances des réseaux de communication. Le réseau est modélisé par un graphe orienté où les noeuds représentent des serveurs, et les flux traversant le réseau doivent suivre les arcs. S'ajoutent à cela des contraintes sur les courbes de trafic (la quantité de données passées par un point depuis la mise en route du réseau) et sur les courbes de service (la quantité de travail fournie par chaque serveur). Pour borner les performances pire-cas, comme la charge en différents points ou les délais de bout en bout, ces enveloppes sont combinées à l'aide d'opérateurs issus notamment des algèbres tropicales : min, +, convolution-(min, +)... Cette thèse est centrée sur l'algorithmique du Network Calculus, à savoir comment rendre effectif ce formalisme. Ce travail nous a amené d'abord à comparer les variations présentes dans la littérature sur les modèles utilisés, révélant des équivalences d'expressivité comme entre le Real-Time Calculus et le Network Calculus. Dans un deuxième temps, nous avons proposé un nouvel opérateur (min, +) pour traiter le calcul de performances en présence d'agrégation de flux, et nous avons étudié le cas des réseaux sans dépendances cycliques sur les flux et avec politique de service quelconque. Nous avons montré la difficulté algorithmique d'obtenir précisément les pires cas, mais nous avons aussi fourni une nouvelle heuristique pour les calculer. Elle s'avère de complexité polynomiale dans des cas intéressants.
654

Étude polarimétrique d’étoiles jeunes

Jolin, Marc-André 11 1900 (has links)
Afin de mieux comprendre l'évolution des étoiles jeunes, nous avons utilisé un code Monte Carlo simulant leur environnement afin d'étudier une nouvelle distribution chez les étoiles Herbig Ae/Be et pour reproduire des cartes d'intensité et de polarisation linéaire obtenues au télescope Canada-France-Hawaii (TCFH) en novembre 2003. Le code datant de la fin des années 80, nous avons dû non seulement le corriger, mais aussi ajouter quelques éléments afin de tenir compte des dernières avancées dans le domaine de la polarisation provenant du milieu circumstellaire. Les étoiles à l'étude étant jeunes (moins de quelques millions d'années), leur voisinage est toujours constitué de grains de poussière mélangés avec du gaz. Selon leur âge, nous retrouvons cette poussière sous différentes structures soit, par exemple, par un disque entouré d'une enveloppe (objets jeunes de classe I) ou par un simple disque (objets de classe II et III). Selon la structure que prend la poussière, les cartes de polarisation et d'intensité qui en résultent vont changer. Nous allons discuter de cette variation des cartes de polarisation selon la distribution de poussière. Suite aux modifications apportées au code, il a fallu s'assurer que celui-ci fonctionne bien. Pour ce faire, nous avons mis au point quelques critères qui nous assurent, s'ils sont satisfaits, que le code Monte Carlo produit de bons résultats. Après avoir validé le code, il est maintenant possible de l'utiliser aux fins d'avancer le domaine de la polarisation. En effet, Dullemond et al.(2001) proposent une nouvelle distribution de grain autour des étoiles Herbig Ae/Be afin de mieux expliquer leur distribution d'énergie spectrale. Par contre, qu'en est-il des cartes de polarisation résultantes? C'est sur cette question que nous nous sommes arrêtés. Par la suite, nous avons essayé de reproduire du mieux possible, tenant compte des limitations du code, les cartes de polarisation obtenues au TCFH. Nous avons étudié en détail les données de R Mon (résultats qui seront présentés sous forme d'article pour fin de publication) et de V376 Cas. De plus, notre étude de V376 Cas nous a permis d'amener des conclusions sur les processus causant les vecteurs parallèles aux disques des étoiles jeunes. / To further understand the evolution of young stellar objects, we used a Monte Carlo code simulating their environment in order to study a new density distribution for the Herbig Ae/Be stars and to reproduce intensity and linear polarization maps obtained at the Canada-France-Hawaii telescope (CFHT) in November 2003. As the code was first created in the 80's, we had to correct some bugs and add new elements in order to take into account the latest advances in studies of polarization produced by circumstellar matter. Since the stars studied are young (less than a few million years), their neighborhood still contains dust mixed with gas which will be distributed according to their age. Younger stars will have a disk structure inside a bigger envelope (class I) while older stars will exhibit only a disk (class II and III). As we can expect, different structures create different intensity and polarization maps. We will discuss the variations induced in the polarization and intensity maps when changing the dust distribution. Following the modifications to the code, we ran some tests to check its functionality. We developed some criteria that once they are satisfied, we can safely assume the Monte Carlo code is operational and that it will produce good results. The code can now be used to increase our knowledge of circumstellar matter around young stellar objects. Indeed, Dullemond et al.(2001) proposed a new dust distribution around Herbig Ae/Be stars which explains better their spectral energy distribution (SED). However, there are still no studies to find out if the polarization maps resulting of this new distribution was also compatible with the observations. This problem was treated with our Monte Carlo code. We then tried to reproduce, as well as possible and taking into account the limits of the code, the polarization and intensity maps obtained at the TCFH. Our study was focused on R Mon, which is presented as an article to be submitted, and V376 Cas. Also, our study of V376 Cas helped us to shed some light on the causes for aligned polarization vectors seen on our maps.
655

Application de la théorie de la révision des connaissances au raisonnement à partir de cas

Cojan, Julien 21 October 2011 (has links) (PDF)
Le raisonnement à partir de cas est un modèle de raisonnement dont le but est de résoudre des problèmes à partir de l'expérience de résolution de problèmes connus, appelés cas sources. Une solution tirée d'un cas source peut ne pas être applicable directement au problème traité, il faut alors l'adapter. Nous nous intéressons dans cette thèse à une approche de l'adaptation qui s'appuie sur la théorie de la révision des connaissances. La révision des connaissances consiste à modi er des connaissances initiales pour prendre en compte de nouvelles connaissances avec lesquelles elles peuvent être en contradiction. Comme pour l'adaptation, les modi cations apportés aux connaissances sont minimales. Ce rapprochement entre adaptation et révision permet de s'appuyer sur la formalisation logique de la révision pour donner un cadre formel à l'adaptation. Dans ce but nous dé nissons des opérateurs de révision dans des formalismes utiles au raisonnement à partir de cas : dans un formalisme attributs-valeurs simples et dans une logique de descriptions expressive (ALC ). Nous montrons aussi que plusieurs approches de l'adaptation précédemment dé nies peuvent être mises sous la forme d'adaptation par la révision. Nous considérons aussi une extension de l'adaptation par la révision à une combinaison de cas où ce n'est plus un seul mais plusieurs cas sources qui sont exploités pour résoudre un problème. Cette approche de combinaison de cas s'appuie sur la fusion contrainte de connaissances qui généralise la révision. Ces travaux ont été appliqués dans le système d'élaboration de recettes de cuisine Taaable pour l'adaptation des quantités d'ingrédients suivant le modèle de l'adaptation par la révision.
656

Diversité des lectures littéraires : comment former des sujets lecteurs divers?

Sauvaire, Marion 15 April 2013 (has links) (PDF)
Nous soutenons que l'enseignement de la lecture littéraire, au lycée et au cégep, peut contribuer à former des sujets lecteurs divers, c'est-à-dire des sujets pluriels, changeants et contradictoires, situés dans une historicité, mais capables de s'en distancier de manière réflexive, et ce, grâce à la médiation du texte lu et à celle des autres lecteurs du texte. Premièrement, nous avons élaboré un modèle de compréhension de la diversité des sujets lecteurs, basé sur la critique d'une conception unitaire, homogène et essentialiste du sujet que l'école devrait former et de la culture qu'elle souhaite transmettre. Deuxièmement, nous avons étudié dans quelle mesure la diversité des interprétations effectivement produites par les élèves peut constituer une médiation efficace de la compréhension de soi-même et d'autrui comme sujet lecteur divers. Cette compréhension reposant sur la confrontation entre les interprétations produites successivement par un même lecteur et simultanément par plusieurs lecteurs, elle est nécessairement transitoire, fragmentaire, intersubjective et réflexive. Troisièmement, nous avons décrit et expliqué comment des élèves élaborent plusieurs interprétations d'un texte littéraire, à la fois en mobilisant les diverses ressources de leur subjectivité et en s'appropriant des éléments interprétatifs coconstruits avec leurs pairs et leur enseignant. En cohérence avec ces visées herméneutiques et praxéologiques, nous avons conçu une séquence d'enseignement, axée sur La plage des songes de S. Péan (1998), intégrant des activités individuelles et collaboratives de lecture, d'écriture et d'oral. Ce dispositif a été expérimenté par deux enseignants, dans une classe de seconde en France et dans une classe de cégep au Québec. Notre méthodologie qualitative vise la compréhension approfondie de sept parcours de lecteurs, grâce au croisement de données recueillies par le biais d'observations de cours, de textes d'élèves et d'entretiens. L'étude multicas confirme que les élèves sont capables de mettre en relation diverses ressources subjectives (cognitives, épistémiques, psychoaffectives, socioculturelles, axiologiques), de mettre à distance leurs interprétations et celles de leurs pairs et de réfléchir sur leur expérience lectorale. Les échanges intersubjectifs (en particulier les comités de lecteurs) jouent un rôle significatif dans la compréhension réflexive par les élèves de la singularité et de la diversité de leur parcours interprétatif.
657

Incidence des leucémies de l'enfant en fonction de la proximité et des caractéristiques générales de diverses sources d'expositions environnementales

Sermage, Claire 21 June 2012 (has links) (PDF)
Le rôle de l'environnement dans l'étiologie des leucémies aigües de l'enfant (LA) fait aujourd'hui l'objet de recherches intenses. Dans ce contexte, le présent travail a pour objectif d'étudier la relation entre l'incidence de LA et la proximité des centrales nucléaires de production d'électricité (CNPE) et des lignes à haute tension (LHT). Avant cette analyse fine, un premier travail a consisté à étudier les variations départementales de l'incidence de LA.Les cas inclus dans ces études sont toutes les LA du Registre National des Hémopathies malignes de l'Enfant sur la période étudiée : 1990-2004 pour l'étude de l'incidence départementale et 2002-2007 pour les études de l'association avec les facteurs d'exposition environnementale. Dans l'approche cas-témoins principalement utilisée pour ces dernières, les 30 000 sujets témoins constitue un échantillon représentatif de la population pédiatrique française sur la période d''intérêt. D'autre part, la géolocalisation des adresses des sujets et des sources d'exposition permet de définir des critères de proximité en relation avec la probabilité et/ou l'intensité d'exposition aux facteurs d'intérêt. * L'étude des LA par département n'a pas mis en évidence de tendance ni de structure spatiale dans l'incidence à ce niveau géographique : que ce soit globalement, par classe d'âge, par sexe ou par sous-type de leucémie. * Sur la période 2002-2007 contrairement aux périodes précédentes, un quasi-doublement de l'incidence des LA à moins de 5 km des CNPE a été mis en évidence, avec une approche cas-témoin comme avec l'étude d'incidence. Ce résultat n'était pas spécifique d'une CNPE ou d'un type de CNPE et non lié à la cartographie des émissions aériennes de radioactivité par les CNPE. * L'association trouvée entre l'incidence de LA et la proximité aux LHT de plus de 225 kV (<50 m) semble restreinte aux enfants de moins de 5 ans ou n'habitant en milieu urbain ; aucune association n'a été trouvée avec la proximité aux LHT de moins de 150 kV.
658

Modélisation des données d'enquêtes cas-cohorte par imputation multiple : Application en épidémiologie cardio-vasculaire.

Marti soler, Helena 04 May 2012 (has links) (PDF)
Les estimateurs pondérés généralement utilisés pour analyser les enquêtes cas-cohorte ne sont pas pleinement efficaces. Or, les enquêtes cas-cohorte sont un cas particulier de données incomplètes où le processus d'observation est contrôlé par les organisateurs de l'étude. Ainsi, des méthodes d'analyse pour données manquant au hasard (MA) peuvent être pertinentes, en particulier, l'imputation multiple, qui utilise toute l'information disponible et permet d'approcher l'estimateur du maximum de vraisemblance partielle.Cette méthode est fondée sur la génération de plusieurs jeux plausibles de données complétées prenant en compte les différents niveaux d'incertitude sur les données manquantes. Elle permet d'adapter facilement n'importe quel outil statistique disponible pour les données de cohorte, par exemple, l'estimation de la capacité prédictive d'un modèle ou d'une variable additionnelle qui pose des problèmes spécifiques dans les enquêtes cas-cohorte. Nous avons montré que le modèle d'imputation doit être estimé à partir de tous les sujets complètement observés (cas et non-cas) en incluant l'indicatrice de statut parmi les variables explicatives. Nous avons validé cette approche à l'aide de plusieurs séries de simulations: 1) données complètement simulées, où nous connaissions les vraies valeurs des paramètres, 2) enquêtes cas-cohorte simulées à partir de la cohorte PRIME, où nous ne disposions pas d'une variable de phase-1 (observée sur tous les sujets) fortement prédictive de la variable de phase-2 (incomplètement observée), 3) enquêtes cas-cohorte simulées à partir de la cohorte NWTS, où une variable de phase-1 fortement prédictive de la variable de phase-2 était disponible. Ces simulations ont montré que l'imputation multiple fournissait généralement des estimateurs sans biais des risques relatifs. Pour les variables de phase-1, ils approchaient la précision obtenue par l'analyse de la cohorte complète, ils étaient légèrement plus précis que l'estimateur calibré de Breslow et coll. et surtout que les estimateurs pondérés classiques. Pour les variables de phase-2, l'estimateur de l'imputation multiple était généralement sans biais et d'une précision supérieure à celle des estimateurs pondérés classiques et analogue à celle de l'estimateur calibré. Les résultats des simulations réalisées à partir des données de la cohorte NWTS étaient cependant moins bons pour les effets impliquant la variable de phase-2 : les estimateurs de l'imputation multiple étaient légèrement biaisés et moins précis que les estimateurs pondérés. Cela s'explique par la présence de termes d'interaction impliquant la variable de phase-2 dans le modèle d'analyse, d'où la nécessité d'estimer des modèles d'imputation spécifiques à différentes strates de la cohorte incluant parfois trop peu de cas pour que les conditions asymptotiques soient réunies.Nous recommandons d'utiliser l'imputation multiple pour obtenir des estimations plus précises des risques relatifs, tout en s'assurant qu'elles sont analogues à celles fournies par les analyses pondérées. Nos simulations ont également montré que l'imputation multiple fournissait des estimations de la valeur prédictive d'un modèle (C de Harrell) ou d'une variable additionnelle (différence des indices C, NRI ou IDI) analogues à celles fournies par la cohorte complète
659

The telling of the unattainable attempt to avoid the {casus irreducibilis} for cubic equations: Cardano's {De Regula Aliza}. With a compared transcription of 1570 and 1663 editions and a partial English translation

Confalonieri, Sara 12 October 2013 (has links) (PDF)
Solving cubic equations by a formula that involves only the elementary operations of sum, product, and exponentiation of the coefficients is one of the greatest results in 16th century mathematics. This was achieved by Girolamo Cardano's Ars Magna in 1545. Still, a deep, substantial difference between the quadratic and the cubic formula exists: while the quadratic formula only involves imaginary numbers when all the solutions are imaginary too, it may happen that the cubic formula contains imaginary numbers, even when the three solutions are anyway all real (and different). This means that a scholar of the time could stumble upon numerical cubic equations of which he already knew three (real) solutions and the cubic formula of which actually contains square roots of negative numbers. This will be lately called the 'casus irreducibilis '. Cardano's De Regula Aliza (Basel, 1570) is (at least, partially) meant to try to overcome the problem entailed by it.
660

Bristish Petroleum America et la marée noire : cartographie stratégique de crise

Benoit, Laurent 01 April 2011 (has links)
Notre recherche qualitative, une étude de cas en communication de crise, dresse le portrait de la marée noire dans le golfe du Mexique durant l’été 2010. La recherche est ancrée sur le modèle de l’Image Repair Theory (IRT) de W.L. Benoit, bonifié de contributions d’autres auteurs, afin d’étudier les stratégies de communication de crise utilisées par British Petroleum America (BP). En scrutant la version Web de quotidiens d’information et le site Internet de BP, nous avons identifié 176 citations officielles que nous avons cataloguées grâce à une analyse de contenu basée sur la Théorie de la narration de Nicole D’Almeida. La description de ce cas réel et l’analyse des stratégies de communication de crise de BP confirment l’adaptabilité de l’IRT bonifiée (IRTB) aux conditions de l’étude et au contexte propre à la crise. L’IRTB a facilité l’interprétation et l’indexation des six stratégies de communication de crise utilisées par BP afin de défendre, promouvoir ou réparer sa réputation.

Page generated in 0.0646 seconds