• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 353
  • 170
  • 53
  • 4
  • 2
  • 1
  • Tagged with
  • 598
  • 355
  • 146
  • 140
  • 113
  • 74
  • 72
  • 71
  • 55
  • 51
  • 47
  • 45
  • 44
  • 43
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Gestion du changement, gestion de projet : convergence - divergence. Cas des risques en conception et mise en place d'une organisation de management de l'environnement

Bassetti, Ann-Laure 24 September 2002 (has links) (PDF)
La mise en place d'une nouvelle organisation apparaît comme un moyen pour l'entreprise de répondre aux multiples pressions du milieu extérieur. Nous avons fait le choix de gérer ce travail sous la forme d'un projet : le projet de conception et de mise en place d'une nouvelle organisation. Nous associons la phase de conception à une approche amont du management des risques projet. Nous abordons la phase de mise en place par une approche originale de la mise en oeuvre du changement (alternance entre phases de rupture et phases d'amélioration continue). Nous identifions également un besoin d'accompagnement des acteurs dans la démarche de changement afin de favoriser son appropriation. L'ensemble de nos propositions sont issues d'un travail de terrain réalisé dans le cadre d'un laboratoire pharmaceutique. Cette analyse nous conduira à proposer un modèle du projet basé sur la description de trois processus : le management de projet, le management stratégique et le management des Hommes. Afin de répondre au besoin de maîtrise de ces trois processus, nous proposons une méthode de fiabilisation du projet. Cette méthode s'articule autour de cinq phases (construites à partir de notre modèle) et de l'application de huit principes (issus de notre travail de terrain).
122

Les ressources explicites vues par la théorie de la réécriture.

Renaud, Fabien 07 December 2011 (has links) (PDF)
Cette thèse s'articule autour de la gestion de ressources explicites dans les langages fonctionnels, en mettant l'accent sur des propriétés de calculs avec substitutions explicites raffinant le lambda-calcul. Dans une première partie, on s'intéresse à la propriété de préservation de la beta-normalisation forte (PSN) pour le calcul lambda s. Dans une seconde partie, on étudie la propriété de confluence pour un large ensemble de calculs avec substitutions explicites. Après avoir donné une preuve générique de confluence basée sur une série d'axiomes qu'un calcul doit satisfaire, on se focalise sur la métaconfluence de lambda j, un calcul où le mécanisme de propagation des substitutions utilise la notion de multiplicité, au lieu de celle de structure. Dans la troisième partie de la thèse on définit un prisme des ressources qui généralise de manière paramétrique le lambda-calcul dans le sens où non seulement la substitution peut être explicite, mais également la contraction et l'affaiblissement. Cela donne un ensemble de huit calculs répartis sur les sommets du prisme pour lesquels on prouve de manière uniforme plusieurs propriétés de bon comportement comme par exemple la simulation de la beta-réduction, la PSN, la confluence, et la normalisation forte pour les termes typés. Dans la dernière partie de la thèse on montre différentes ouvertures vers des domaines plus pratiques. On s'intéresse à la complexité d'un calcul avec substitutions en premier lieu. On présente des outils de recherche et on conjecture des bornes maximales. Enfin, on finit en donnant une spécification formelle du calcul lambda j dans l'assistant à la preuve Coq.
123

De l'investigation d'accident à l'évaluation de la sécurité industrielle : proposition d'un cadre interdisciplinaire (concepts, méthode, modèle)

Le Coze, Jean-Christophe 05 May 2011 (has links) (PDF)
Cette thèse propose un cadre d'approche interdisciplinaire pour la sécurité industrielle. Celui-ci est explicité et illustré par l'intermédiaire de plusieurs étapes. La première, empirique, présente une investigation d'accident majeur. Il est montré d'une part que ce dernier peut s'appréhender à la lumière d'une articulation de différents points de vue disciplinaires (sciences de l'ingénieur, ergonomie, sociologie, gestion, juridique) qui éclairent des questions d'ordre technologique, de situation de travail, d'organisation (et de gestion) ainsi que de réglementation et de contrôle par les autorités. Le résultat obtenu n'entre dans aucune discipline spécifique et possède un caractère hybride, à la croisée de chemins. Ce cas d'accident interroge d'autre part la nature dynamique et événementielle, contingente et unique des accidents technologiques majeurs. Ces deux points, synthétisés dans une deuxième étape, entrainent vers une exploration de la complexité, sous l'angle philosophique. Cette notion de complexité, envisagée comme une 'méta-catégorie épistémique' dans une troisième étape, permet ainsi de déboucher sur la caractérisation d'un 'style' cognitif d'approche de la connaissance, indiquant la nécessité, dans la situation contemporaine des sciences, d'explorer des stratégies de recherche pluri, inter (voire trans)disciplinaire. A l'issue de cette exploration à la fois des disciplines et de la complexité, un modèle de sécurité industrielle est proposé. Cette quatrième étape conceptualise les liens entre plusieurs dimensions clés de la sécurité industrielle, prenant en compte de manière combinée l'intrication du technologique et du social. Enfin, dans la dernière étape, ce modèle est illustré par une étude de cas. Elle montre comment le modèle fournit concrètement une structuration pour la collecte et l'interprétation des données, qui reposent sur la mobilisation d'une approche par les incidents (exploitant la valeur heuristique de l'événement) et par le 'mode normal'.
124

Tatouage des bases de données

Gross-Amblard, David 06 December 2010 (has links) (PDF)
Les techniques de tatouage de bases de données permettent la dissimulation d'information pertinente dans les n-uplets, comme par exemple l'identité du propriétaire des données. Les techniques de tatouage sont nombreuses dans le domaine multimédia, mais le tatouage des bases de données présente de nombreuses spécificités. Certaines d'entre elles sont traitées dans ce document : comment tatouer une base de données numérique tout en préservant le résultat de requêtes d'agrégat importantes, comment tatouer un flux structuré, comme un flux XML typé ou une partition musicale symbolique, comment tatouer une base de données géographiques.
125

Génération aléatoire d'automates et analyse d'algorithmes de minimisation

David, Julien 28 September 2010 (has links) (PDF)
Cette thèse porte sur la génération aléatoire uniforme des automates finis et l'analyse des algorithmes de minimisation qui s'y appliquent. La génération aléatoire permet de conduire une étude expérimentale sur les propriétésde l'objet engendré et sur les méthodes algorithmiques qui s'y appliquent. Il s'agit également d'un outil de recherche, qui permet de faciliter l'étude théorique du comportement moyen des algorithmes. L'analyse en moyenne des algorithmes s'inscrit dans la suite des travaux précurseurs de Donald Knuth. Le schéma classique en analyse d'algorithmes consiste à étudier le pire des cas, qui n'est souvent pas représentatif du comportement de l'algorithme en pratique. D'un point de vue théorique, on définit ce qui se produit "souvent'' en fixant une loi de probabilitésur les entrées de l'algorithme. L'analyse en moyenne consiste alors à estimer des ressources utiliséespour cette distribution de probabilité. Dans ce cadre, j'ai travaillé sur des algorithmes de génération aléatoire d'automatesdéterministes accessibles (complets ou non). Ces algorithmes sont basés sur de la combinatoirebijective, qui permet d'utiliser un procédé générique : les générateurs de Boltzmann. J'ai ensuite implanté ces méthodes dans deux logiciels : REGAL et PREGA. Je me suis intéressé à l'analyse en moyenne des algorithmes de minimisation d'automateset j'ai obtenu des résultats qui montrent le cas moyen des algorithmes de Moore et Hopcroft est bien meilleur que le pire des cas
126

Cohérence de calculs répartis face aux défaillances, à l'anonymat et au facteur d'échelle

Bonnet, François 22 July 2010 (has links) (PDF)
Aujourd'hui les systèmes répartis existent sous de multiples formes ; le réseau Internet, le réseau de téléphonie cellulaire, des réseaux de capteurs, etc. Le développement croissant et la diversification des appareils communicants favorisent l'émergence de nouveaux réseaux et de nouveaux problèmes. Cette thèse propose tout d'abord une introduction générale sur les systèmes répartis en décrivant les différentes caractéristiques et problématiques qu'il est possible de rencontrer dans de tels systèmes. Suite à cette présentation globale, ce manuscrit décrit l'étude de trois systèmes spécifiques. Dans une première partie, nous étudions les réseaux petits-mondes et plus particulièrement la question du routage dans de tels réseaux : nous proposons d'une part une analyse fine permettant d'évaluer le coût du routage et d'autre part un nouvel algorithme épidémique construisant des réseaux petits-mondes de manière décentralisée. Dans une seconde partie, nous nous intéressons à l'exploration de graphes par des robots mobiles anonymes : nous démontrons une borne topologique sur le nombre de robots pouvant explorer un graphe, puis nous décrivons plusieurs algorithmes d'explorations dépendant des capacités de vision de chaque robot. Enfin dans une dernière partie, nous présentons des résultats sur les détecteurs de fautes et sur le problème du consensus dans des systèmes asynchrones anonymes: après une description de nouveaux détecteurs, nous démontrons qu'il existe une hiérarchie permettant de les ordonner puis nous donnons deux algorithmes les utilisant afin de résoudre le problème du consensus.
127

Comparaisons de génomes avec gènes dupliqués : étude théorique et algorithmes

Angibaud, Sébastien 07 October 2009 (has links) (PDF)
La génomique comparative étudie les similarités et/ou les dissimilarités entre génomes et permet d'établir des relations entre les espèces afin notamment de construire des phylogénies. Elle permet également de mettre en évidence des régions conservées au sein des génomes et de trouver ainsi des ensembles de gènes impliqués dans des processus biologiques conservés au cours de l'évolution. Dans ce mémoire, nous nous intéressons au calcul de mesures entre deux génomes en présence de gènes dupliqués, et plus particulièrement aux mesures à base de points de cassure, d'adjacences, d'intervalles communs et d'intervalles conservés. Suivant une démarche informatique, nous proposons tout d'abord une étude avancée de la complexité algorithmique des problèmes rencontrés, en prouvant notamment pour la plupart d'entre eux soit leur NP-Complétude soit leur APX-Difficulté. Par la suite, nous exposons plusieurs méthodes de calcul de mesures entre deux génomes, à savoir (i) une approche exacte basée sur une transformation en un problème de contraintes à variables booléennes, (ii) une heuristique et (iii) une méthode hybride qui s'appuie sur la méthode exacte et l'heuristique proposées. Par une étude sur un jeu de données réel, nous montrons les qualités respectives de ces méthodes. Enfin, nous proposons un protocole de calcul des intervalles communs et mettons en évidence, par son utilisation et par un outil de visualisation, l'aspect fonctionnel de certains intervalles communs.
128

Contribution to the Study and Implementation of Intelligent Modular Self-organizing Systems

Budnyk, Ivan 08 December 2009 (has links) (PDF)
Les problèmes de la classification ont reçu une attention considérable dans des différents champs d'ingénierie comme traitement des images biomédicales, identification a partir de la voix, reconnaissance d'empreinte digitale etc. Les techniques d'intelligence artificielles, incluant les réseaux de neurones artificiels, permettent de traiter des problèmes de ce type. En particulier, les problèmes rencontrés nécessitent la manipulation de bases de données de tailles très importantes. Des structures de traitement adaptatives et exploitant des ensembles de classificateurs sont utilisées. Dans cette thèse, nous décrivons principalement le développement et des améliorations apportées à un outil de classification désigné par le terme Tree-like Divide to Simplify ou T-DTS. Nos efforts se sont portés sur l'un des modules de cet outil, le module d'estimation de complexité. L'architecture de l'outil T-DTS est très flexible et nécessite le choix d'un nombre important de paramètres. Afin de simplifier l'exploitation de T-DTS, nous avons conçu et développé une procédure automatique d'optimisation d'un de ces plus importants paramètres, le seuil de décision associé à la mesure de complexité. La contribution principale de cette thèse concerne le développement de modules pouvant s'implanté sur une architecture de calcul matérielle parallèle. Ce ceci permet de se rapproché d'une implantation purement matérielle de l'outil T-DTS
129

Étude des problèmes de <i>spilling</i> et <i>coalescing</i> liés à l'allocation de registres en tant que deux phases distinctes

Bouchez, Florent 30 April 2009 (has links) (PDF)
Le but de l'allocation de registres est d'assigner les variables d'un programme aux registres ou de les " spiller " en mémoire s'il n'y a plus de registre disponible. La mémoire est bien plus lente, il est donc préférable de minimiser le spilling. Ce problème est difficile il est étroitement lié à la colorabilité du programme. Chaitin et al. [1981] ont modélisé l'allocation de registres en le coloriage du graphe d'interférence, qu'ils ont prouvé NP-complet, il n'y a donc pas dans ce modèle de test exact qui indique s'il est nécessaire ou non de faire du spill, et si oui quoi spiller et où. Dans l'algorithme de Chaitin et al., une variable spillée est supprimée dans tout le programme, ce qui est inefficace aux endroits où suffisamment de registres sont encore disponibles. Pour palier ce problème, de nombreux auteurs ont remarqué que l'on peut couper les intervalles de vie des variables grâce à l'insertion d'instructions de copies, ce qui crée des plus petits intervalles et permet de spiller les variables sur des domaines plus réduits. La difficulté est alors de choisir les bons endroits où couper les intervalles. En pratique, on obtient de meilleurs résultats si les intervalles sont coupés en de très nom- breux points [Briggs, 1992; Appel and George, 2001], on attend alors du coalescing qu'il enlève la plupart de ces copies, mais s'il échoue, le bénéfice d'avoir un meilleur spill peut être annulé. C'est pour cette raison que Appel and George [2001] ont créé le " Coalescing Challenge ". Récemment (2004), trois équipes ont découvert que le graphe d'interférence d'un programme sous la forme Static Single Assignment (SSA) sont cordaux. Colorier le graphe devient alors facile avec un schéma d'élimination simpliciel et la communauté se demande si SSA simplifie l'allocation de registres. Nos espoirs étaient que, comme l'était le coloriage, le spilling et le coalescing deviennent plus facilement résolubles puisque nous avons à présent un test de coloriage exact. Notre premier but a alors été de mieux comprendre d'où venait la complexité de l'allocation de registres, et pourquoi le SSA semble simplifier le problème. Nous sommes revenus à la preuve originelle de Chaitin et al. [1981] pour mettre en évidence que la difficulté vient de la présence d'arcs critiques et de la possibilité d'effectuer des permutations de couleurs ou non. Nous avons étudié le problème du spill sous SSA et différentes versions du problème de coalescing : les cas généraux sont NP-complets mais nous avons trouvé un résultat polynomial pour le coalescing incrémental sous SSA. Nous nous en sommes servis pour élaborer de nouvelles heuristiques plus efficaces pour le problème du coalescing, ce qui permet l'utilisation d'un découpage agressif des intervalles de vie. Ceci nous a conduit à recommander un meilleur schéma pour l'allocation de reg- istres. Alors que les tentatives précédentes donnaient des résultats mitigés, notre coa- lescing amélioré permet de séparer proprement l'allocation de registres en deux phases indépendantes : premièrement, spiller pour réduire la pression registre, en coupant po- tentiellement de nombreuses fois ; deuxièmement, colorier les variables et appliquer le coalescing pour supprimer le plus de copies possible. Ce schéma devrait être très efficace dans un compilateur de type agressif, cepen- dant, le grand nombre de coupes et l'augmentation du temps de compilation nécessaire pour l'exécution du coalescing sont prohibitifs à l'utilisation dans un cadre de com- pilation just-in-time (JIT). Nous avons donc créé une nouvelle heuristique appelée " déplacement de permutation ", faite pour être utilisée avec un découpage selon SSA, qui puisse remplacer notre coalescing dans ce contexte.
130

Composition de services: algorithmes et complexité

Cheikh-Alili, Fahima 19 June 2009 (has links) (PDF)
Le problème de la combinaison des services, autrement appelé problème de la composition, constitue le foyer d'une intense activité de recherche. Composer les services entre eux, c'est entrelacer leurs séquences d'actions, de manière à obtenir des séquences qui satisfassent les exigences des clients. Le problème de la composition de services est difficile à résoudre en général. Dans cette thèse nous considérons des services qui peuvent à la fois exécuter des actions de communications ainsi que des actions internes. De plus, des conditions peuvent être exigées et des effets peuvent être appliqués sur les transitions. Formellement, les services sont représentés par des automates communicants conditionnels. Nous définissons, pour ce modèle, le problème de la composition et nous étudions sa décidabilité pour différentes relations d'équivalence et de préordre à savoir : l'inclusion de traces, l'équivalence de traces, la simulation et la bisimulation. Suite aux résultats de décidabilité obtenus, nous proposons trois variantes pour le modèle initial. Pour chacune d'elles, nous définissions le problème de la composition et nous étudions sa complexité pour les relations citées ci-dessus.

Page generated in 0.0763 seconds