• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2922
  • 693
  • 350
  • 55
  • 50
  • 49
  • 10
  • 5
  • 1
  • 1
  • 1
  • Tagged with
  • 4428
  • 1912
  • 982
  • 646
  • 483
  • 398
  • 372
  • 365
  • 357
  • 355
  • 309
  • 306
  • 292
  • 276
  • 273
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
821

Corrélation communication/coordination et le taux de succès en TI

Demers, Réal 04 1900 (has links) (PDF)
Chaque année, les entreprises nord-américaines dépensent des milliards de dollars dans des projets en technologies de l'information. Plusieurs de ces projets ne connaitront pas de succès. L'échec n'est pas causé par un manque de ressources financières ou par une mauvaise utilisation des technologies. Une grande partie des projets échouent par manque d'expertise en gestion de projet. Malgré les apparences, la définition du succès en TI n'est pas facile et il n'existe pas de définitions universellement acceptées. Les projets en TI peuvent être classés dans trois grandes catégories : succès, échec et gageure (challenger). L'amélioration des processus de gestion et des processus de développement en génie logiciel ont permis d'augmenter le taux de succès des projets en TI tout en diminuant les coûts. Malgré ces progrès, le taux d'échec demeure élevé. La réalisation et l'implantation d'un projet TI amènent des changements qui doivent être gérés efficacement afin d'assurer l'atteinte de tous les bénéfices escomptés. Le rôle du gestionnaire de projet est de mobiliser et d'utiliser les ressources de l'entreprise afin d'atteindre un objectif spécifique : la livraison des artéfacts pour lesquels le projet a été mis en place. Un projet TI envoie des signes bien avant d'être en situation d'échec. Bien qu'il n'existe pas de liste exhaustive, plusieurs études ont identifié des facteurs critiques ayant un impact sur le taux de succès et/ou d'échec en TI. Ces facteurs peuvent être divisés en deux groupes. Dans le premier groupe, on retrouve les facteurs critiques de succès et, dans le second, les facteurs critiques d'échec. Plusieurs études identifient les facteurs critiques ayant un impact sur le succès d'un projet TI. Ces facteurs sont classés et pondérés par les chercheurs comme s'ils étaient indépendants les uns des autres. Parmi ces facteurs, la communication et coordination est identifiée comme un des facteurs critiques du succès par la littérature. Nous croyons que cette dernière peut être utilisée pour mesurer la tendance générale du projet. Ce facteur a possiblement des impacts importants sur les autres facteurs critiques, ce qui le rend intéressant et digne d'approfondissement. ______________________________________________________________________________
822

Nouvelle gestion publique et production de l'objectivité à Statistique Canada (1985-2008)

Dionne, Francis 09 1900 (has links) (PDF)
À l'ère du projet de société de l'information entrepris par les pays capitalistes avancés, l'économie est dominée par le travail informationnel. Dès lors, l'information et le savoir prennent la forme de marchandises. Comme l'entreprise dans l'économie mondialisée, les institutions étatiques sont encouragées à s'organiser en réseaux décentralisés, interconnectés, afin de faire circuler l'information de façon efficace. Les pratiques et discours du néo-management propres au secteur privé sont adoptés par l'État néolibéral sous le nom de Nouvelle Gestion Publique. L'État adopte en son sein des mécanismes de marché, il se met en spectacle, les pratiques de branding sont adoptées, et le citoyen est de plus en plus considéré comme un client. Dans ce contexte caractérisé par un besoin croissant d'information et par la montée en importance des corps non-élus participant à une nouvelle séparation des pouvoirs dans les démocraties, entre collecteurs d'informations empiriques non élus et émetteurs de jugements éthiques, sociaux et politiques élus, il nous semble pertinent de nous intéresser aux systèmes statistiques nationaux, en tant que sources d'expertise « indépendantes » dans la production et la diffusion d'informations quantifiées au service du débat démocratique (revendication de politiques publiques, critique des politiques existantes ou de leur mise en œuvre), et en tant qu'organes fondamentaux au fonctionnement de l'État. Afin de ne pas négliger les différences nationales qui existent entre les différents systèmes statistiques, nous nous penchons sur le cas de Statistique Canada. À la fin de 1984, à la suite du rapport du groupe de travail Nielsen sur l'examen des programmes, le gouvernement conservateur de Brian Mulroney décide de couper dans les dépenses de l'État et annonce que le recensement de 1986 n'aura pas lieu. Statistique Canada, soutenu par plusieurs acteurs concernés, réitère la pertinence du recensement et promet de le faire en gérant lui-même la réduction des dépenses et du personnel. Le mandat du nouveau statisticien en chef, Ivan Fellegi, débute et est caractérisé par l'adoption de principes inspirées de la Nouvelle Gestion publique qui répondent en partie aux coupes budgétaires gouvernementales. Trois pratiques inspirées de la Nouvelle Gestion publique appliquées au cours de la période étudiée sont retenues dans le cadre de notre mémoire : la gouvernance en réseau, la redéfinition des critères de qualité de l'information, et la commercialisation des produits d'information et des services du bureau statistique. L'objectif de cette recherche est de cerner en quoi l'adoption des pratiques inspirées de la Nouvelle gestion publique par le bureau statistique exerce une influence, si tel est le cas, sur la nature de l'information produite. De plus, nous voulons savoir si l'indépendance et les fonctions essentielles du bureau canadien de la statistique sont remises en question par de telles pratiques. La diversification et la commercialisation des demandes tendent à soumettre le critère de pertinence de l'information aux objectifs d'efficacité et de rentabilité des différents ministères et du secteur privé. Un rapprochement s'effectue entre les systèmes de données et l'application des politiques néolibérales. Enfin, l'harmonisation internationale des données, des systèmes de classification, des concepts et des définitions semblent s'effectuer en lien avec le processus de mondialisation de l'économie capitaliste. Sans que l'indépendance scientifique ne soit directement touchée par les pressions politiques et l'adoption de principes néo-managériaux, le contenu des enquêtes, le programme statistique et les fonctions essentielles du Bureau sont, eux, directement influencés. ______________________________________________________________________________
823

Essais sur l'approche des options réelles appliquée à la gestion et l'exploitation des ressources naturelles

Ben Abdallah, Skander January 2009 (has links) (PDF)
Cette thèse se compose de trois chapitres ayant trait à l'économie des ressources naturelles et de l'environnement. Elle porte sur l'application de l'approche des options réelles à la gestion et l'exploitation des ressources naturelles. Son principal objectif est d'étudier les décisions d'investissements indéfiniment répétés sous l'incertitude. Dans les deux premiers chapitres, on utilise l'approche des options réelles pour déterminer comment extraire optimalement le bois d'une forêt qui constitue un habitat stochastique pour une espèce menacée d'extinction. Dans le premier chapitre qui s'intitule "A Real options Approach to Forest-Management Decision Making to Protect Caribou under the Threat of Extinction", la politique optimale visant la protection de l'espèce menacée d'extinction consiste à banir définitivement à un moment optimal la coupe forestière sans aucun coût. Le modèle, comportant des aspects économiques, écologiques et sociaux, est calibré afin de déterminer une politique optimale arbitrant entre les revenus économiques de l'exploitation forestière et le risque d'extinction du caribou Rangifer tarandus, une espèce menacée au centre du Labrador, Canada. Le deuxième chapitre fait suite au premier et s'intitule "A Real Options Approach to the Protection of a Habitat Dependent Endangered Species". Dans ce deuxième chapitre, nous utilisons la méthode des options réelles pour déterminer quand un planificateur social doit interrompre ou reprendre l'exploitation d'une telle forêt. Le processus d'interruption et reprise peut cette fois se reproduire indéfiniment. Pour des paramètres correspondant au cas du caribou Rangifer tarandus du Labrador, la politique optimale d'interruption et de reprise de l'exploitation forestière s'avère attractive; elle n'exige pas de longs arrêts de l'exploitation alors qu'elle réduit significativement le risque d'extinction tout en augmentant la valeur de la forêt Le troisième chapitre s'intitule "Alternative and Indefinitely Repeated Investments : Species Choice and Harvest Age in Forestry". Dans ce chapitre, on considère le problème de choisir la date optimale pour couper un arbre comme un problème archétypique d'investissement; en effet, ce problème évoque le temps, l'incertitude et l'irréversibilité de décisions ayant des conséquences dans le futur. L'exercice de l'option de couper donne naissance à l'option de planter un autre arbre ou bien d'utiliser la terre à d'autres fins. On enrichit ce problème en mettant l'accent sur la décision de planter et en supposant l'existence de deux essences alternatives d'arbres. Pour chaque essence, on suppose que la fonction de croissance est déterministe alors que le prix unitaire de la récolte est stochastique. Dans le cas d'une seule rotation (le problème de Wicksel), le manager forestier doit planter immédiatement l'essence dont le prix (actuel) est suffisament élevé par rapport au prix de l'autre essence. Cependant, si les prix des deux essences sont relativement proches, il doit attendre jusqu'à ce que ces prix se distinguent suffisamment pour éviter de choisir la mauvaise essence. En revanche, quand le nombre de rotations est arbitrairement grand (le problème de Faustman), on montre qu'il est toujours optimal de planter l'une des deux essences immédiatement. L'age optimal à la coupe dépend du prix relatif des deux essences d'une façon non monotone; en effet, il varie autour de l'age de faustman correspondant à l'essence plantée et ce tant que le prix relatif est inférieur à un certain niveau seuil indiquant la nécessité de planter l'essence alternative. La valeur du terrain est une fonction croissante du prix relatif de l'essence plantée et croît avec l'incertitude liée aux prix des deux essences. La pente de la fonction est continue même au voisinage du seuil signalant la nécessité de changer l'essence à planter. Par contre, en absence d'incertitude, la pente est généralement discontinue au voisinage de ce seuil. La valeur du terrain est similaire à la valeur d'une option américaine avec une frontière libre, une date d'expiration infinie et une valeur endogène à l'exercice. La détermination de la valeur du terrain est basée sur la méthode de pénalité appliquée simultanément aux valeurs de la forêt constituée par chacune des deux essences d'une part, et d'autre part, par un processus newtonien itératif appliqué à la valeur du terrain.
824

Application des copules à la finance de marché

Bouvier, Pierre January 2010 (has links) (PDF)
L'objectif de la thèse est de montrer l'importance et l'utilité de la théorie mathématique que les copules apportent à la finance de marché. La motivation première de ces applications réside dans le fait que les comportements des rendements conjoints des marchés financiers s'éloignent de la normalité. Ainsi les méthodes statistiques traditionnelles, reposant sur cette hypothèse, ne peuvent pas être appliquées à la finance de marché. Dans cc document, avec l'aide des copules nous apportons un éclairage nouveau sur les comportements conjoints et des mesures de corrélations entre les marchés. Les copules sont des outils mathématiques puissants qui remédient aux lacunes laissées par les mesures traditionnelles de corrélations et de risque. Les copules reposent sur un cadre mathématique formel qui en permet l'application. Nous montrons aussi que les copules sont utilisées pour explorer la dépendance entre les rendements des actifs d'un portefeuille. Elles trouvent application à la valorisation de titres dont les valeurs marchandes dépendent de plusieurs actifs financiers, par exemple une option de type européen sur plusieurs actifs sous-jacents. Nous montrons aussi leurs utilités comme outils de mesure de diversification d'un portefeuille avec l'ajout de un ou plusieurs fonds de couverture. Finalement, nous exposons comment la théorie des copules vient en aide aux gestionnaires d'actifs d'une caisse de retraite dans le choix des titres et la composition d'un portefeuille. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Copules elliptiques, Copules archimédiennes, Copules hiérarchiques, Distributions marginales, Fonctions de dépendance, Chi-plots, Tau de Kendall, Rho de Pearson, Corrélations de rangs, Valorisation d'options-plusieurs sous-jacents, Fonds de couverture.
825

DEPNET : une approche support au processus de gestion de conflits basée sur la gestion des dépendances de données de conception

Ouertani, Mohamed Zied 18 June 2007 (has links) (PDF)
Dans un contexte de performances de plus en plus exigeantes, la conception de produits est devenue une activité collaborative menée par des acteurs ayant différentes expertises. Une des caractéristiques de la conception collaborative est que les relations de précédence entre les activités créent des dépendances entre les données échangées. Dans un tel contexte, des conflits peuvent apparaître entre les acteurs lors de l'intégration de leurs propositions. Ces conflits sont d'autant plus amplifiés par la multiplicité des expertises et des points de vue des acteurs participant au processus de conception.<br />C'est à la gestion de ce phénomène, le conflit, que nous nous sommes intéressés dans le travail présenté dans ce mémoire, et plus particulièrement à la gestion de conflits par négociation. Nous proposons l'approche DEPNET (product Data dEPendencies NETwork identification and qualification) pour supporter au processus de gestion de conflits basée sur la gestion des dépendances entre les données. Ces données échangées et partagées entre les différents intervenants sont l'essence même de l'activité de conception et jouent un rôle primordial dans l'avancement du processus de conception.<br />Cette approche propose des éléments méthodologiques pour : (1) identifier l'équipe de négociation qui sera responsable de la résolution de conflit, et (2) gérer les impacts de la solution retenu suite à la résolution du conflit. Une mise en œuvre des apports de ce travail de recherche est présentée au travers du prototype logiciel DEPNET. Nous validons celui-ci sur un cas d'étude industriel issu de la conception d'un turbocompresseur.
826

Supervision des Réseaux et Services Ad-Hoc

Badonnel, Rémi 11 December 2006 (has links) (PDF)
Les réseaux ad-hoc sont des réseaux auto-organisés formés spontanément à partir d'un ensemble d'entités mobiles sans nécessiter d'infrastructure fixe pré-existante. La supervision de ces réseaux dynamiques représente une tâche définitivement plus complexe que celle des réseaux traditionnels. En effet, la topologie est soumise à des changements très fréquents. De plus, les stations mobiles sont caractérisées par de multiples contraintes en énergie, bande passante et capacité système. Cette thèse présente une nouvelle approche de gestion pour les réseaux et services ad-hoc capable de prendre en compte leur nature dynamique et leurs ressources limitées. Pour ce faire, nous définissons tout d'abord un modèle d'information de gestion complet et générique permettant d'identifier les éléments caractéristiques d'un tel réseau et de les spécifier à l'aide d'un formalisme commun. Nous décrivons ensuite l'architecture de gestion sous-jacente en proposant une méthode probabiliste permettant une plus grande flexibilité du plan de gestion. Enfin, nous adaptons les opérations de gestion en utilisant différentes méthodes d'analyse telles que l'analyse de la centralité par vecteur propre et la classification par k-means. Ceci nous permet d'établir une vue opérationnelle du réseau et d'évaluer l'état de fonctionnement des noeuds. Nous exploitons autant que possible les informations déjà disponibles dans le plan de routage afin d'aboutir à une solution à faible coût. Indépendamment des modèles analytiques mis en oeuvre, nos contributions ont été évaluées par la simulation et le prototypage.
827

L'espace hydraulique sud-africain : le partage des eaux /

Blanchon, David, January 1900 (has links)
Texte remanié de: Thèse de doctorat--Géographie--Paris 10, 2003. Titre de soutenance : Impacts environnementaux et enjeux territoriaux des transferts d'eau inter bassins en Afrique du Sud. / Bibliogr. p. 265-290.
828

Contribution des ontologies à la création de bases de connaissances pour la maîtrise des conformités réglementaires en santé, sécurité au travail et environnement

Vigneron, Jonathan 18 December 2013 (has links) (PDF)
La "Santé-Sécurité au Travail" (SST) est au cœur des politiques d'entreprise et la judiciarisation de la société concourt à une inflation du nombre de textes réglementaires publiés chaque année. Les préventeurs sont donc confrontés au traitement croissant de données afin de rester en conformité. Ils se forment au droit et s'entourent de compétences interne (direction juridique) ou externe (bureaux de contrôle et de conseil) et se dotent de systèmes d'information. Ces derniers sont principalement des bases de données de "veille juridique" proposant des textes réglementaires accompagnés de commentaires. L'ensemble de ces données demeure complexe à interpréter et à exploiter en raison du nombre croissant de textes, de l'expertise nécessaire à fin de les comprendre et de la difficulté à s'assurer qu'ils concernent les activités de l'entreprise. Ce besoin peut être satisfait par le recours aux modèles et méthodes de l'intelligence artificielle. Parmi ceux ci, les concepts d'ontologies et de bases de connaissances ont été retenus. Une ontologie est un modèle d'un domaine particulier de connaissances réalisé dans un but précis. Un cas pratique de gestion des connaissances est décrit dans le cadre d'une expérimentation conduite avec une entreprise du domaine de la production d'énergie.
829

Gestion de la sécurité dans une infrastructure de services dynamique : Une approche par gestion des risques

Bou Nassar, Pascal 21 December 2012 (has links) (PDF)
Les changements de contexte économiques imposent de nouvelles stratégies organisationnelles aux entreprises : recentrages métier et développement de stratégies de collaboration interentreprises. Ces tendances du marché laissent prévoir une croissance exponentielle d'écosystèmes de service accessibles à la fois aux clients finaux et aux partenaires. Tout laisse prévoir que ces écosystèmes s'appuieront largement sur les architectures orientées services permettant de construire des systèmes d'information capable d'avoir l'agilité requise et de supporter l'interconnexion des processus métier collaboratifs en composant dynamiquement les processus à partir de services distribués. Ce type d'architecture qui permet d'assurer l'alignement du système d'information sur les besoins métier de l'entreprise, rend indispensable la prise en compte des contraintes de sécurité tant au niveau individuel des services qu'au niveau de la composition. Dans un environnement de services distribués et dynamiques, la sécurité ne doit pas se limiter à fournir des solutions technologiques mais à trouver une stratégie de sécurité prenant en compte les dimensions métier, organisationnelle et technologique. En outre, la sécurité doit être appréhendée comme un processus continu qui vise l'optimisation des investissements de sécurité et assure la pérennité des mesures de sécurité mises en œuvre. Or les modèles et architectures de référence du domaine des services ont sous-estimé la définition des besoins en termes de sécurité, les biens à protéger et l'identification des risques pesant sur ces biens. Pour cela, nous proposons d'aborder la problématique de la sécurité par une approche de gestion des risques permettant d'identifier les différents types de risques et de proposer les mesures de sécurité les plus adéquates au contexte. Toutefois, la gestion des risques s'avère un vrai défi dans un environnement ouvert de services collaboratifs. En effet, les méthodes de gestion des risques développées dans le cadre des systèmes d'information ne répondent pas aux exigences de sécurité dans un environnement ouvert et ne sont pas adaptées aux environnements dynamiques. Pour pallier ces limites, nous proposons un cadre méthodologique de gestion de la sécurité portant sur les phases préparation, conception, exécution et supervision du cycle de vie des services. Nous proposons un modèle de services sécurisés permettant de définir des patrons de sécurité, un modèle de classification des biens à protéger et une ontologie pour définir les concepts associés à ces biens. En outre, nous développons une méthodologie de conception d'une architecture orientée services sécurisée puis abordons la construction de processus métier sécurisés avant de proposer un service de gestion des vulnérabilités de l'infrastructure.
830

Un schéma d'emprunt de ressources pour l'adaptation du comportement d'applications distribuées

Batouma, Narkoy, Batouma, Narkoy 30 September 2011 (has links) (PDF)
Les systèmes d'exploitation utilisent très généralement une politique de " meilleur effort " (Best-effort) pour exécuter les applications. Tant que les ressources sont suffisantes, les applications s'exécutent normalement mais quand les ressources deviennent insuffisantes, des mécanismes de contrôle sont nécessaires pour continuer à obtenir des services de qualité acceptable. Cette thèse a pour objectif de gérer la QoS des applications distribuées. La première partie propose un middleware totalement décentralisé pour contrôler l'utilisation des ressources des applications distribuées. Cette approche se fonde sur une planification approximative et un schéma d'emprunt de ressources afin d'améliorer la QoS globale du système. Via ce schéma d'emprunt, chaque nœud construit localement une vue détaillée de la disponibilité des ressources dans le système. La présence da la connaissance de la disponibilité des ressources en local permet à chaque nœud de prendre localement des décisions et de planifier les tâches des applications. Pour un contrôle plus fin de l'exécution, la deuxième partie ajoute un support pour l'adaptation du comportement des applications. Le middleware utilise un modèle général des applications sous forme de graphe d'exécution décoré avec les besoins en ressources. Un chemin dans le graphe est une exécution possible de l'application avec une certaine utilité, et ce sont ces chemins qui fournissent les degrés de liberté dont le middleware a besoin pour adapter la consommation des ressources au contexte. Les applications coopèrent avec le middleware dans le processus de gestion de la QoS lors de l'admission puis durant toute l'exécution. Le middleware est le chef d'orchestre et c'est lui qui pilote et c'est lui qui pilote l'exécution des actions des applications (arcs dans le graphe) Pour valider notre approche, un prototype à base d'agents a été réalisé. Les résultats démontrent l'intérêt de notre approche.

Page generated in 0.1092 seconds