• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 484
  • 71
  • 41
  • 4
  • 3
  • Tagged with
  • 627
  • 228
  • 154
  • 79
  • 73
  • 69
  • 68
  • 64
  • 57
  • 56
  • 51
  • 46
  • 44
  • 43
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

ESSAI SUR LA DECADENCE L'HERMENEUTIQUE D'UN OBJET TRANSDISCIPLINAIRE ET SES CONSEQUENCES POUR UNE RECHERCHE EN GESTION

Jardat, Rémi 23 June 2010 (has links) (PDF)
Les recherches présentées ici reflètent l'importance de la transdisciplinarité et du structuralisme (en sens large du terme) en sciences de gestion. Deux études de terrain témoignent tout d'abord de la résistance du phénomène de gestion aux grilles de lecture purement organisationnelles : d'une part, la confrontation au Crédit Mutuel, banque coopérative dont les spécificités appellent le recours à un méta-modèle démocratie-efficacité complexe, et d'autre part, l'étude d'un projet de mécénat humanitaire, dont la gouvernance est à la fois dans et hors de la gestion. L'intérêt des approches structuralistes au sens large est ensuite souligné par l'exemple d'un travail d'archéologie du management stratégique par la méthode de Michel Foucault d'une part et par le décryptage des projets informatiques conflictuels par la sémiotique d'Algirdas-Julien Greimas d'autre part. Ce compte rendu de travaux réalisés pendant 8 années de recherche en gestion est suivi d'une étude nouvelle réalisée dans le cadre de l'Habilitation à Diriger des Recherches. Il s'avère que le concept de déclin, très utilisé en gestion du fait de la détermination de divers cycles de vie, constitue une notion à la fois très porteuse et très suspecte. Cette notion est par ailleurs massivement utilisée pour parler d'autres aspects des affaires humaines (économie, histoire, sociologie, etc.) sans que soient bien cernées les éventuelles significations que ces emplois multiples peuvent occasionner. Il est alors proposé d'étudier un objet transdisciplinaire – le « déclin-décadence-déclassement » - à l'aide d'une analyse transposant aux sciences humaines un certain nombre de notions structurales issues de la géologie. Si l'on admet en effet que les affaires humaines sont avant tout sujettes à représentations, il apparaît possible de décrire leur structure à travers deux notions-clés que sont le pli et la schistosité. Le pli est une représentation qui superpose deux termes en explicitant cette superposition, de sorte que le sens de chacun des deux termes avant l'établissement du pli soit expliqué et reste accessible à l'enquête. La marque formelle d'une représentation en pli consiste en énoncés portant sur cette représentation et affirmant son caractère conjectural et discutable. La schistosité caractérise toute représentation qui superpose deux termes de sorte que, pour au moins l'un d'entre eux, le sens auquel il était employé avant l'établissement de la représentation diffère de celui auquel il est employé une fois superposé à l'autre terme, sans que cette différence soit assumée ni même évaluable. La marque formelle d'une représentation schisteuse est typiquement l'homonymie subreptice à laquelle recourt toute généralisation abusive. L'analyse structurale est appliquée en deux volets. Un premier volet prend pour matériau d'analyse les représentations du « déclin-décadence-déclassement » produites dans le cadre de l'historiographie romaine (période impériale). Un second volet prend pour matériau d'analyse le matériau de gestion défini comme l'ensemble des représentations afférentes aux phénomènes de gestion. L'étude de ces deux matériaux est conduite en trois étapes transposées du processus de la géologie en train de se faire : la topographie, la palé-ontologie et la tectonique. Concernant les représentations du phénomène de gestion, chaque étape de l'étude conduit à des constats d'importance méthodologique croissante. La topographie du déclin invite à une analyse de l'importance et de la performance des lieux communs en gestion. La palé-ontologie amène à porter l'attention, tout d'abord aux transformations silencieuses de l'entreprise, puis aux homonymies et décontextualisations qui peuvent être le lot des travaux de recherche en gestion. La tectonique des représentations du déclin conduit à des remarques de deux niveaux. Au niveau opérationnel apparaît le risque qu'il y a pour le praticien de recourir à l'argument du déclin pour promouvoir, dans les organisations, la conduite du changement. Au niveau méthodologique est esquissé l'intérêt d'une démarche herméneutique pour étudier le phénomène de gestion. La conclusion est focalisée sur la mise en avant de quelques spécificités des représentations de gestion (en regard des représentations touchant d'autres aspects des affaires humaines). Les représentations du phénomène managérial sont analysées comme un matériau dont l'épaisseur reflète la distance qui sépare, pour le manager, les objectifs attendus des résultats réellement obtenus. Les difficultés à manager sont en conséquence décrites à l'aide de métaphores relevant de la science des matériaux. Ces propriétés du matériau de gestion trouvent alors une explication dans les structures et textures auparavant mises à jour lors de l'étude d'objets plus restreints (discours stratégistes et représentations du déclin). L'objectif de la recherche en gestion consiste dans cette optique à enrichir le matériau de gestion sans le brouiller par des transpositions et généralisations abusives.
122

Définition d'un cadre méthodologique pour la conception de modèles multi-agents adaptée à la gestion des ressources renouvelables

Bommel, Pierre 07 May 2009 (has links) (PDF)
Le paradigme des systèmes multi-agents (SMA), qui propose une manière originale de modéliser le monde, est considéré comme un mode pertinent de représentation des connaissances. Mais les potentialités des SMA ne doivent pas cacher les difficultés qui guettent le modélisateur et qui peuvent remettre en cause sa légitimité scientifique. La question de la validation sert alors de fil directeur de cette thèse qui décrit un cadre méthodologique pour concevoir des modèles plus fiables. Car, contrairement aux modèles mathématiques, un SMA ne peut pas prouver ses résultats ni s'abstraire de la simulation. De plus, les probabilités de faire apparaître des erreurs ou des biais ne sont pas négligeables. De sa conception à son implémentation, de nombreux artefacts peuvent apparaître. On peut alors légitimement s'interroger sur la fiabilité des simulateurs. Or il s'agit moins d'erreurs de codage que de problèmes de gestion approximative des interactions ou d'activation des agents qui peuvent remettre en cause cette fiabilité. Cette thèse éclaire donc les zones sensibles susceptibles de générer des artefacts. Car la modélisation des socio-éco-systèmes n'est pas juste une spécialité informatique, mais demande un véritable savoir-faire et le modélisateur doit garder un regard critique sur ses outils. Non seulement il faut connaître par avance les points sensibles des SMA mais il faut également s'assurer de la robustesse de ses résultats en montrant que le simulateur exhibe des comportements relativement stables. Au-delà de la phase d'élaboration, la thèse souligne le rôle des analyses exploratoires pour mieux expliquer le comportement global d'un modèle, hiérarchiser l'influence des paramètres et tester la robustesse des hypothèses. Elle montre l'intérêt de la réplication et la nécessité de présenter un SMA de façon claire et non ambiguë. Après la mise en place d'un simulateur, un travail de re-présentation reste à mener pour proposer des diagrammes réorganisés qui mettent la lumière sur les points essentiels et autorisent des discussions et des critiques. Nous défendons l'idée d'une modélisation exposée, qui doit assumer ses choix sans imposer ses points de vue. Il est urgent d'abandonner la vision naïve qui consiste à penser qu'un modèle est objectif. La notion de modèle neutre qui ne serait qu'une copie du réel in silico, impliquerait que le modélisateur n'a aucun présupposé sur le système qu'il étudie et que le monde se reflète dans sa pensée comme une image dans un miroir. Or, que ce soit intentionnel ou non, un modèle est forcément une représentation subjective. Il faut donc expliciter ses choix et les présenter de la façon la plus lisible possible pour qu'ils puissent être compris, partagés ou critiqués. Suite aux défauts de fiabilité des SMA et aussi à cause de démarches naïves de la modélisation, il est préférable, dans l'état actuel des SMA, d'opter pour des modèles simples plutôt qu'une approche descriptive qui chercherait à introduire dans le modèle le maximum d'informations considérées comme données par nature.
123

Joyful economists : étude des relations historiques entre analyse économique et analyse psychologique du point de vue de "l'économie du bonheur"

Edwards, José Miguel 14 December 2009 (has links) (PDF)
Cette thèse traite de l'histoire des relations entre l'analyse économique et l'analyse psychologique du point de vue de l'histoire de "l'économie du bonheur" (the economics of happiness). Elle comporte trois parties. La première (The Economics of Happiness) traite du développement historique de l'économie du bonheur et la divise en deux périodes : depuis la première analyse économique des données de bonheur (1974) jusqu'à la fin du XXème siècle, et ensuite. La deuxième partie de la thèse (Bypassing Behavior Control) utilise cette histoire comme point de départ et étudie l'histoire des relations entre l'analyse économique et la psychologie expérimentale. Elle compare deux visions alternatives du comportement du consommateur : en tant qu'agent rationnel qui répond à ses préférences, et en tant qu'influencé par son entourage socio-économique ainsi que par les pratiques publicitaires des producteurs. La troisième et dernière partie de la thèse (Subjective Quantification in Economics), étudie l'histoire de l'usage économique de données subjectives. Elle est centrée sur le développement croissant d'analyses économiques de données de bonheur (subjective well-being), de données d'anticipations (economic expectations) et d'évaluations contingentes (contingent valuations). Elle montre que ces analyses ont été adoptées par des économistes en tant qu'outils de gouvernement et contrôle économique (plutôt qu'outils scientifiques) et explique ainsi l'émergence des dernières analyses des économistes du bonheur, qui utilisent des données de satisfaction comme instruments d'évaluation des politiques environnementales (the life satisfaction approach for valuing environmental goods).
124

Aldéhydes et cétones dans l'environnement : de la phase gaz à la phase condensée

Perrier, Sebastien 19 November 2002 (has links) (PDF)
Ces demières annèes, de nombreuses mesures en région polaire ont montré que les concentrations de certains gaz traces réactifs (aldéhydes, oxydes d'azote) étaient très supérieures à ce que la chimie en phase gazeuse pouvait expliquer. Les hypothèses actuellement retenues pour expliquer ces observations comprennent l'émission de composés dissous ou adsorbés dans la neige, et leur production photochimique dans le manteau neigeux, à partir de composés à identifier. Afin de tenter d'expliquer les rapports de mélange du formaldéhyde (HCHO) et de l'acétaldéhyde (CH3CHO) dans l'arctique, des mesures simultanées ont été effectuées dans l'atmosphère et dans la neige, au cours de la campagne ALERT 2000, à Alert (Ellesmere Island, 82,5° N, 62,3° W) en février et avril 2000. Le développement préalable d'une méthode d'analyse sensible de ces composés dans la neige a été nécessaire. Les évolutions temporelles des concentrations en formaldéhyde (HCHO) et en acétaldéhyde (CH3CHO) dans les couches de neige fraîches ont été suivies pendant plusieurs jours. Comme le métamorphisme de la neige conduit à des cycles de sublimation/condensation à la fois de la glace et des espèces dissoutes, nous avons également suivi l'évolution de la microphysique de la neige. Les résultats obtenus nous ont permis de tester différents mécanismes possibles d'incorporation des aldéhydes dans la neige. Connaître le mécanisme prédominant est nécessaire pour quantifier la vitesse d'échange air-neige de ces composés. Les mécanismes possibles incluent l'adsorption à la surface des cristaux de neige, et la dissolution dans leur volume. Les données obtenues ont permis de tester ces différents mécanismes, et d'apporter des éléments nouveaux sur les processus par lesquels le manteau neigeux pouvait avoir un impact important sur la chimie de l'atmosphère. Nous avons notamment émis l'hypothèse que le formaldéhyde était incorporé en volume dans les cristaux de neige et que les échanges avec l'atmosphère se faisaient par diffusion en phase solide. La vérification de ces résultats nécessitait cependant une confirmation par des expériences en laboratoire. Nous avons donc effectué une étude préliminaire de la solution solide HCHOH20 et nous avons obtenu le coefficient de diffusion du formaldéhyde dans la glace (DHCHO) à -15°C : DHCHO = (8±5j x10*11 cm2 s-1 . Cette valeur de DHCHO permet d'expliquer les variations des concentrations en formaldéhyde dans la neige que nous avons observé sur le terrain.
125

Teneurs en monoxyde de carbone de l'air contenu dans la glace de l'Antarctique et du Groenland

Haan, Denis 10 May 1996 (has links) (PDF)
Le monoxyde de carbone (CO) est présent à l'état de trace dans l'atmosphère, il participe à de nombreuses réactions chimiques qui affectent la composition atmosphérique et le climat. Dans le cadre de cette étude, une méthode expérimentale a été mise au point pour extraire le gaz piégé dans la glace ancienne et analyser sa concentration en CO. L'extraction du gaz par fusion et regel de l'échantillon de glace apparaît comme étant la méthode la mieux adaptée à l'étude du CO contenu dans la glace. Des tests "blanc" réalisés à partir de glace artificielle montrent que cette méthode est efficace (pas de contamination en CO détectable) à condition de nettoyer préalablement la surface de l'échantillon. Il reste à déterminer dans quelle mesure ces observations faites sur la glace artificielle peuvent être extrapolées à la glace naturelle. Il semble que ce soit le cas pour la glace antarctique dont le comportement au cours d'un cycle de fusion-regel est similaire à celui de la glace artificielle. Par contre, le cas de la glace du Groenland paraît plus complexe, car elle semble induire, dans certaines sections de carotte, une contamination supplémentaire liée vraisemblablement à des processus in situ de production de CO. La méthode d'extraction par fusion-regel a été appliquée à un nombre important d'échantillons provenant de carottes antarctiques et groenlandaises. Pour la première fois, une interprétation en terme de signal atmosphérique a pu être apportée pour des échantillons couvrant les deux derniers siècles. Ainsi, l'analyse des carottes Eurocore (Groenland) et D47 (Antarctique) nous a pennis de retracer l'évolution au cours de la période 1850-1950 de la concentration en CO aux hautes latitudes. Une augmentation d'environ 20% des teneurs en CO apparaît, au cours de cette période, dans l'hémisphère nord, en phase avec l'évolution des sources anthropiques de CO telles que la combustion du charbon et la consommation des carburants liquides. Au cours de la période 1850-1916, l'Antarctique se caractérise, en revanche, par une relative stabilité des teneurs en CO qui suggère que les hautes latitudes sud sont restées influencées, pendant au moins la première partie de l'ère industrielle, par la prédominance de sources naturelles de CO. A partir d'un scénario d'évolution des sources, nous avons montré que ces résultats présentent des implications importantes dans la compréhension du cycle atmosphérique du CO. Ils suggèrent en effet que des sources anthropiques de CO doivent déjà être prises en compte pour la période pré-industrielle, ce qui constitue une contrainte importante pour les modèles. En marge de ces résultats, l'étude de la partie basse de la carotte Eurocore suggère la possiblité d'interactions physico-chimiques au sein de la glace pouvant modifier le signal atmosphérique originel. Le profil de concentration en CO, présente en effet dans cette partie de la carotte, une variabilité importante qui ne peut pas être a priori expliquée par la modification des sources et des puits de CO. L'existence de mécanismes d'oxydation de la matière organique contenue dans la glace pourrait être à l'origine des variations observées sur ces niveaux. La similitude du profil de CO avec celui du CO2 dans cette partie de la carotte semble confirmer cette hypothèse.
126

Mise en place d'une démarche de conception pour circuits hautes performances basée sur des méthodes d'optimisation automatique

Tugui, Catalin Adrian 14 January 2013 (has links) (PDF)
Ce travail de thèse porte sur le développement d'une méthodologie efficace pour la conception analogique, des algorithmes et des outils correspondants qui peuvent être utilisés dans la conception dynamique de fonctions linéaires à temps continu. L'objectif principal est d'assurer que les performances pour un système complet peuvent être rapidement investiguées, mais avec une précision comparable aux évaluations au niveau transistor.Une première direction de recherche a impliqué le développement de la méthodologie de conception basée sur le processus d'optimisation automatique de cellules au niveau transistor et la synthèse de macro-modèles analogiques de haut niveau dans certains environnements comme Mathworks - Simulink, VHDL-AMS ou Verilog-A. Le processus d'extraction des macro-modèles se base sur un ensemble complet d'analyses (DC, AC, transitoire, paramétrique, Balance Harmonique) qui sont effectuées sur les schémas analogiques conçues à partir d'une technologie spécifique. Ensuite, l'extraction et le calcul d'une multitude de facteurs de mérite assure que les modèles comprennent les caractéristiques de bas niveau et peuvent être directement régénéré au cours de l'optimisation.L'algorithme d'optimisation utilise une méthode bayésienne, où l'espace d'évaluation est créé à partir d'un modèle de substitution (krigeage dans ce cas), et la sélection est effectuée en utilisant le critère d'amélioration (Expected Improvement - EI) sujet à des contraintes. Un outil de conception a été développé (SIMECT), qui a été intégré comme une boîte à outils Matlab, employant les algorithmes d'extraction des macro-modèles et d'optimisation automatique.
127

Spécification d'un cadre d'ingénierie pour les réseaux d'organisations

Zaidat, Ali 07 September 2005 (has links) (PDF)
Nous nous situons dans le contexte d'ingénierie des systèmes. Nous nous intéressons à la problématique de création, gestion et dissolution des structures de coopération (comme le réseau d'entreprises, l'entreprise virtuelle et l'entreprise étendue). Les méthodologies existantes (CIMOSA, GRAI-GIM, PERA et VERAM) restent génériques et difficiles quant à leur application sur ces structures. Il devient alors nécessaire de leur associer une méthodologie d'ingénierie spécifique. Pour répondre à cette problématique, nous proposons dans le cadre de nos travaux de recherche un cadre d'ingénierie pour les réseaux d'organisations (qui sont des structures de coopération particulières). Ce cadre est en fait le résultat d'une spécialisation à la fois des cadres d'ingénierie de référence de GERAM et de VERAM. Nous proposons essentiellement une architecture de référence, des concepts génériques de modélisation, une méthodologie d'ingénierie et des modèles. Nous présentons ensuite une mise oeuvre de la méthodologie à travers une étude de cas.
128

Reconstitutions paléobathymétriques de la Téthys au Jurassique terminal : méthode et conséquences

Cottereau, Nicolas 25 June 1992 (has links) (PDF)
Les reconstitutions paléobathymetriques des domaines océaniques permettent d'examiner non seulement la profondeur du plancher mais aussi la géometrie et l'évolution des chenaux de communication entre les différents bassins océaniques. Connaitre la bathymétrie est indispensable pour comprendre l'organisation et la distribution des corps sédimentaires et les répartitions des micro-organismes. L'étude des circulations océaniques et des concentrations de matières minérales associées suppose que soit établie une carte bathymétrique. La carte bathymétrique obtenue par la méthode exposée donne une profondeur génèrale préliminaire. Elle peut servir de base à des études de la sédimentation et des courants. Appliquée a la Téthys toute entière, cette méthode permet de caractériser au mieux la morphologie des seuils caraibes, méditerraneen, et indonésien et les circulations entre les bassins océaniques qu'ils séparent. L'utilisation d'un modèle numérique de circulations océaniques permet notamment de mettre en évidence l'influence de la topographie sur la distribution et la vitesse des courants. Un modèle de circulations océaniques au Tithonique supérieur est proposé et permet de localiser les zones potentielles d'upwellings
129

Les ressources annotées, un enjeu pour l'analyse de contenu : vers une méthodologie de l'annotation manuelle de corpus

Fort, Karën 07 December 2012 (has links) (PDF)
L'annotation manuelle de corpus est devenue un enjeu fondamental pour le Traitement Automatique des Langues (TAL). En effet, les corpus annotés sont utilisés aussi bien pour créer que pour évaluer des outils de TAL. Or, le processus d'annotation manuelle est encore mal connu et les outils proposés pour supporter ce processus souvent mal utilisés, ce qui ne permet pas de garantir le niveau de qualité de ces annotations. Nous proposons dans cette thèse une vision unifiée de l'annotation manuelle de corpus pour le TAL. Ce travail est le fruit de diverses expériences de gestion et de participation à des campagnes d'annotation, mais également de collaborations avec différents chercheur(e)s. Nous proposons dans un premier temps une méthodologie globale pour la gestion de campagnes d'annotation manuelle de corpus qui repose sur deux piliers majeurs : une organisation des campagnes d'annotation qui met l'évaluation au cœur du processus et une grille d'analyse des dimensions de complexité d'une campagne d'annotation. Un second volet de notre travail a concerné les outils du gestionnaire de campagne. Nous avons pu évaluer l'influence exacte de la pré-annotation automatique sur la qualité et la rapidité de correction humaine, grâce à une série d'expériences menée sur l'annotation morpho-syntaxique de l'anglais. Nous avons également apporté des solutions pratiques concernant l'évaluation de l'annotation manuelle, en donnant au gestionnaire les moyens de sélectionner les mesures les plus appropriées. Enfin, nous avons mis au jour les processus en œuvre et les outils nécessaires pour une campagne d'annotation et instancié ainsi la méthodologie que nous avons décrite.
130

Approche multi-agents pour la conception et la construction d'un environnement de simulation en vue de l'évaluation des performances des ateliers multi-sites

Galland, Stéphane 20 December 2001 (has links) (PDF)
Nous nous situons dans le contexte de la simulation de systèmes industriels complexes et distribués en termes opérationnel, informationnel et décisionnel. Nous considérons plus particulièrement les problèmes de formalisation, de modularité, de centralisation et de mise en évidence des flux et sous-systèmes. En effet, l'évolution du contexte industriel pousse les entreprises à évoluer vers des systèmes de plus en plus décentralisés (entreprises virtuelles, groupement d'entreprises, décentralisation,...). Les méthodes et les outils de simulation existants ne supportent pas de manière optimale ces nouveaux systèmes. En effet, il reste aujourd'hui très difficile de modéliser et simuler le comportement de systèmes tels que les groupements d'entreprises. Après avoir mis en évidence cette problématique, nous proposons dans le cadre de nos travaux de recherche une apporche méthodologique adaptée aux systèmes industriels fortement distribués. Cette approche est basée sur les systèmes multi-agents et reste indépendante de toute plateforme ou outil informatique. Nous proposons un cycle de vie et une première définition des phases les plus importantes : spécification d'un modèle de simumation, conception d'un modèle multi-agents et implantation d'un modèle informatique. Les concepts que nous mettons en oeuvre (systèmes multi-agents, systémique, ...) nous permettent de répondre aux différents problèmes posés par les systèmes de production complexes et distribués.

Page generated in 0.0419 seconds