• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 689
  • 334
  • 67
  • 2
  • Tagged with
  • 1109
  • 510
  • 292
  • 197
  • 166
  • 141
  • 121
  • 110
  • 103
  • 98
  • 97
  • 97
  • 89
  • 81
  • 75
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
641

Modélisation et conception d'algorithmes pour la planification automatique du personnel de compagnies aériennes

Draghici, Carmen 29 September 2005 (has links) (PDF)
La planification et la gestion optimale des ressources humaines jouent un rôle important dans la productivité et la compétitivité des entreprises. Dans cette thèse nous nous intéressons à la modélisation et à la résolution de différents problèmes d'optimisation soulevés par la construction de plannings pour les agents qui travaillent dans un contexte aéronautique : la création de vacations, la création de rotation, l'affectation de vacations et de rotations. Pour le problème de construction de vacations, nous proposons une approche de modélisation basée sur le concept de plage horaire et ensuite une méthode heuristique de résolution basée sur l'algorithme FFD (First Fit Decreasing) et sur la génération de colonnes. Le problème de création de rotations est résolu par une méthode de programmation linéaire en variables mixtes. Les problèmes d'affectation de vacations et de rotations sont modélisés comme des problèmes de multi-affectation généralisé. Nous proposons une décomposition temporelle et par qualification et ensuite une transformation du problème d'affectation généralisé en un problème d'affectation simple par relaxation Lagrangienne. Un algorithme ad-hoc est utilisé pour la résolution de chaque problème de base. La plupart des algorithmes élaborés ont été couplés à des bases de données réelles et commercialisés par la société IFR-France.
642

Étude quantitative de la tomographie optique diffuse de luminescence. Application à la localisation de sources en imagerie moléculaire

Boffety, Matthieu 23 February 2010 (has links) (PDF)
L'imagerie moléculaire occupe une place majeure dans le domaine de la recherche préclinique. Parmi les modalités existantes, les techniques optiques fondées sur la détection d'un rayonnement visible ou proche infrarouge sont les plus récentes et sont principalement représentées par les méthodes de tomographie optique de luminescence. Ces méthodes permettent une caractérisation 3D d'un milieu biologique par la reconstruction de cartes de concentration ou la localisation de marqueurs luminescents sensibles à des processus biologiques et chimiques se déroulant à l'échelle de la cellule ou de la molécule. La tomographie de luminescence se fonde sur un modèle de propagation de la lumière dans les tissus, un protocole d'acquisition du signal en surface du milieu et une procédure numérique d'inversion de ces mesures afin de reconstruire les paramètres d'intérêts. Ce travail de thèse s'articule donc autour de ces trois axes et apporte un élément de réponse à chacun des problèmes. L'objectif principal de cette étude est d'introduire et de présenter des outils d'évaluation des performances théoriques d'une méthode de tomographie optique. L'un des aboutissements majeurs est la réalisation de reconstructions tomographiques expérimentales à partir d'images acquises par un imageur optique conçu pour l'imagerie planaire 2D et développé par la société Quidd. Dans un premier temps nous abordons la théorie du transport en milieu diffusant afin de poser les concepts et outils sur lesquels vont s'appuyer l'ensemble des travaux. Nous présentons particulièrement deux modèles de propagation différents ainsi que les méthodes de résolution et les difficultés théoriques qui leur sont liées. Dans une deuxième partie nous introduisons les outils statistiques utilisés pour caractériser les systèmes tomographiques et leur résolution potentielle. Nous définissons une procédure et nous l'appliquons à l'étude de quelques situations simples en tomographie de luminescence. La dernière partie de ce travail présente la mise au point d'une procédure d'inversion. Après avoir présenté le cadre théorique dans lequel cette procédure s'inscrit nous la validons à partir de données numériques avant de l'appliquer avec succès à des mesures expérimentales.
643

Modèle de structuration et d'évaluation des scénarios des technologies de l'hydrogène du point de vue de l'acceptabilité sociale

Kpoumié, Amidou 09 July 2013 (has links) (PDF)
Cette thèse porte sur l'aide à la décision dans un contexte décisionnel très complexe. Classiquement, pour résoudre de telles situations, on utilise des méthodes de structuration de problèmes. Cependant ces méthodes bien qu'appliquées dans le cadre multi acteur ou dans les décisions de groupe, n'aboutissent pas toujours à des résultats directement exploitables dans un modèle d'évaluation. Ou, lorsque c'est le cas, les données obtenues par structuration sont utilisées comme si elles provenaient d'un seul décideur, tendant à réduire par conséquent l'efficacité de la décision prise et son adhésion publique. Dans cette thèse nous nous sommes attelés à concevoir un modèle d'intégration d'outils conciliant le choix approprié d'outils de structuration pour les décisions de groupe et son exploitation efficace dans un modèle d'évaluation multicritère. En particulier nous nous sommes focalisés sur les modalités du passage des cartes cognitives aux arbres de valeurs. Ensuite nous avons appliqué notre démarche sur le cas pratique du projet ''AIde à la Décision pour l'identification et l'accompagnement aux transformations sociétales induites par les nouvelles technologies de l'Hydrogène'' (AIDHY). Enfin, la dernière partie de notre thèse est axée sur l'apport d'une modélisation multicritère pour appréhender formellement le problème d'évaluation des scénarios, formulé comme un problème de tri multicritère. Par conséquent, nous avons construit une méthode permettant d'observer et de paramétrer le comportement des invariants d'une acceptabilité sociale en général, par le biais d'une d'analyse de sensibilité à partir du cas de l'hydrogène énergie.
644

Sans différends, point d'harmonie : les règlements de conflit à Montréal aux XVIIe et XVIIIe siècles

Paul, Josianne 24 February 2011 (has links)
Situé à la croisée de l’histoire et de la criminologie, ce travail a voulu se mettre à hauteur d’homme afin de comprendre comment les habitants de Montréal aux XVIIe et XVIIIe siècles géraient les situations conflictuelles potentiellement criminalisables auxquelles ils devaient faire face. Pour ce faire, un cadre théorique original a été élaboré à partir de la notion de situation-problème proposée par le criminologue Louk Hulsman. Cette approche interdisciplinaire a permis de déterminer qu’en milieu colonial la notion de crime ne fut jamais clairement définie. Pour la population, l’identification d’actes criminels se faisait à partir des valeurs chrétiennes, de même que par les interdits identifiés par l’État. Le concept de crime et sa gestion étaient des construits sociaux qui s’adaptaient aux besoins des colons et de l’administration royale. De ce fait, deux types de situation-problème existaient. D’une part, il y avait celles opposant les habitants entre eux, qu’il est possible de nommer situations-problèmes d’origine privée, et d’autre part, il y avait celles confrontant l’État à la désobéissance de ces sujets, lesquelles peuvent être qualifiées de situations-problèmes d’origine étatique. Les situations-problèmes d’origine privée naissaient dans la vie quotidienne et tournaient autour des valeurs sociales fondamentales qu’étaient l’honneur, la famille, le travail, la subsistance et la propriété. Pour résoudre leurs querelles, les colons avaient recours à divers modes de règlement de conflit, tel que la conciliation, la compensation ou les sanctions pénales. Pour leur part, les situations-problèmes d’origine étatique se produisaient lorsque les colons ne respectaient pas les limites imposées par l’État, lequel utilisait exclusivement le mode pénal pour les sanctionner. Il ressort de cette étude qu’en Nouvelle-France la justice n’était pas un phénomène purement institutionnel et que les colons faisaient la distinction entre le sentiment de justice et les services que pouvaient leur offrir les institutions judicaires présentes sur le territoire de la juridiction royale de Montréal. À partir des différents modes de résolution de conflit disponibles, les habitants, de même que l’administration royale, cherchaient d’abord et avant tout à atteindre la satisfaction durable des parties impliquées afin de maintenir l’harmonie sociale.
645

Sécurité polynomiale en cryptographie

Fiedler, Heinz 08 1900 (has links)
Dans ce mémoire, nous proposons des protocoles cryptographiques d'échange de clef, de mise en gage, et de transfert équivoque. Un premier protocole de transfert équivoque, primitive cryptographique universelle pour le calcul multi-parties, s'inspire du protocole d'échange de clef par puzzle de Merkle, et améliore les résultats existants. Puis, nous montrons qu'il est possible de construire ces mêmes primitives cryptographiques sans l'hypothèse des fonctions à sens unique, mais avec le problème 3SUM. Ce problème simple ---dans une liste de n entiers, en trouver trois dont la somme a une certaine valeur--- a une borne inférieure conjecturée de Omega(n^2). / In this work, we propose cryptographic protocols for key exchange, bit commitment and oblivious transfer. Our oblivious transfer protocol, universal cryptographic primitive for multipartie computation, is inspired from Merkle's key exchange protocol with puzzles, and improves on existing results. Then, we show that it's possible to build those same cryptographic primitives without the hypothesis of one-way functions, but with the 3SUM problem. This simple problem ---in a list of n integers, find three that sum is a desired value--- has a conjectured lower bound of Omega(n^2).
646

La résolution du problème de formation de cellules dans un contexte multicritère

Ahadri, Mohamed Zaki 01 1900 (has links)
Les techniques de groupement technologique sont aujourd’hui utilisées dans de nombreux ateliers de fabrication; elles consistent à décomposer les systèmes industriels en sous-systèmes ou cellules constitués de pièces et de machines. Trouver le groupement technologique le plus efficace est formulé en recherche opérationnelle comme un problème de formation de cellules. La résolution de ce problème permet de tirer plusieurs avantages tels que la réduction des stocks et la simplification de la programmation. Plusieurs critères peuvent être définis au niveau des contraintes du problème tel que le flot intercellulaire,l’équilibrage de charges intracellulaires, les coûts de sous-traitance, les coûts de duplication des machines, etc. Le problème de formation de cellules est un problème d'optimisation NP-difficile. Par conséquent les méthodes exactes ne peuvent être utilisées pour résoudre des problèmes de grande dimension dans un délai raisonnable. Par contre des méthodes heuristiques peuvent générer des solutions de qualité inférieure, mais dans un temps d’exécution raisonnable. Dans ce mémoire, nous considérons ce problème dans un contexte bi-objectif spécifié en termes d’un facteur d’autonomie et de l’équilibre de charge entre les cellules. Nous présentons trois types de méthodes métaheuristiques pour sa résolution et nous comparons numériquement ces métaheuristiques. De plus, pour des problèmes de petite dimension qui peuvent être résolus de façon exacte avec CPLEX, nous vérifions que ces métaheuristiques génèrent des solutions optimales. / Group technology techniques are now widely used in many manufacturing systems. Those techniques aim to decompose industrial systems into subsystems or cells of parts and machines. The problem of finding the most effectivegroup technology is formulated in operations research as the Cell Formation Problem. Several criteria can be used to specify the optimal solution such as flood intercellular, intracellular load balancing, etc. Solving this problem leads to several advantages such as reducing inventory and simplifying programming. The Cell Formation Problem is an NP-hard problem; therefore, exact methods cannot be used to solve large problems within a reasonabletime, whereas heuristics can generate solutions of lower quality, but in a reasonable execution time. We suggest in this work, three different metaheuristics to solve the cell formation problem having two objectives functions: cell autonomy and load balancing between the cells.We compare numerically these metaheuristics. Furthermore, for problems of smaller dimension that can be solved exactly with CPLEX, we verify that the metaheuristics can reach the optimal value.
647

Contributions à l'étude d'espaces de fonctions et d'EDP dans une classe de domaines à frontière fractale auto-similaire

Deheuvels, Thibaut 22 March 2013 (has links) (PDF)
Cette thèse est consacrée à des questions d'analyse en amont de la modélisation de structures arborescentes, comme le poumon humain. Plus particulièrement, nous portons notre intérêt sur une classe de domaines ramifiés du plan, dont la frontière comporte une partie fractale auto-similaire. Nous commençons par une étude d'espaces de fonctions dans cette classe de domaines. Nous étudions d'abord la régularité Sobolev de la trace sur la partie fractale de la frontière de fonctions appartenant à des espaces de Sobolev dans les domaines considérés. Nous étudions ensuite l'existence d'opérateurs de prolongement sur la classe de domaines ramifiés. Nous comparons finalement la notion de trace auto-similaire sur la partie fractale du bord à des définitions plus classiques de trace. Nous nous intéressons enfin à un problème de transmission mixte entre le domaine ramifié et le domaine extérieur. L'interface du problème est la partie fractale du bord du domaine. Nous proposons ici une approche numérique, en approchant l'interface fractale par une interface préfractale. La stratégie proposée ici est basée sur le couplage d'une méthode auto-similaire pour la résolution du problème intérieur et d'une méthode intégrale pour la résolution du problème extérieur.
648

Formulation de la tomographie des temps de première arrivée par une méthode de gradient : un pas vers une tomographie interactive

Taillandier, Cédric 02 December 2008 (has links) (PDF)
La tomographie des temps de première arrivée cherche à estimer un modèle de vitesse de propagation des ondes sismiques à partir des temps de première arrivée pointés sur les sismogrammes. Le modèle de vitesse obtenu peut alors permettre une interprétation structurale du milieu ou bien servir de modèle initial pour d'autres traitements de l'imagerie sismique. Les domaines d'application de cette méthode s'étendent, à des échelles différentes, de la géotechnique à la sismologie en passant par la géophysique pétrolière. Le savoir-faire du géophysicien joue un rôle important dans la difficile résolution du problème tomographique non-linéaire et mal posé. De nombreuses recherches ont entrepris de faciliter et d'améliorer cette résolution par des approches mathématique ou physique. Dans le cadre de ce travail, nous souhaitons développer une approche pragmatique, c'est-à-dire que nous considérons que le problème tomographique doit être résolu par un algorithme interactif dont les paramètres de réglage sont clairement définis. L'aspect interactif de l'algorithme facilite l'acquisition du savoir-faire tomographique car il permet de réaliser, dans un temps raisonnable, de nombreuses simulations pour des paramétrisations différentes. Le but poursuivi dans cette thèse est de définir, pour le cas spécifique de la tomographie des temps de première arrivée, un algorithme qui réponde au mieux à ces critères. Les algorithmes de tomographie des temps de première arrivée classiquement mis en oeuvre aujourd'hui ne répondent pas à nos critères d'une approche pragmatique. En effet, leur implémentation ne permet pas d'exploiter l'architecture parallèle des supercalculateurs actuels pour réduire les temps de calcul. De plus, leur mise en oeuvre nécessite une paramétrisation rendue complexe du fait de la résolution du système linéaire tomographique. Toutes ces limitations pratiques sont liées à la formulation même de l'algorithme à partir de la méthode de Gauss-Newton. Cette thèse repose sur l'idée de formuler la résolution du problème tomographique à partir de la méthode de plus grande descente pour s'affranchir de ces limitations. L'étape clé de cette formulation réside dans le calcul du gradient de la fonction coût par rapport aux paramètres du modèle. Nous utilisons la méthode de l'état adjoint et une méthode définie à partir d'un tracé de rais a posteriori pour calculer ce gradient. Ces deux méthodes se distinguent par leur formulation, respectivement non-linéaire et linéarisée, et par leur mise en oeuvre pratique. Nous définissons ensuite clairement la paramétrisation du nouvel algorithme de tomographie et validons sur un supercalculateur ses propriétés pratiques : une parallélisation directe et efficace, une occupation mémoire indépendante du nombre de données observées et une mise en oeuvre simple. Finalement, nous présentons des résultats de tomographie pour des acquisitions de type sismique réfraction, 2-D et 3-D, synthétiques et réelles, marines et terrestres, qui valident le bon comportement de l'algorithme, en termes de résultats obtenus et de stabilité. La réalisation d'un grand nombre de simulations a été rendue possible par la rapidité d'exécution de l'algorithme, de l'ordre de quelques minutes en 2-D.
649

Stochastic model of high-speed train dynamics for the prediction of long-time evolution of the track irregularities / Modèle stochastique de la dynamique des trains à grande vitesse pour la prévision de l'évolution à long terme des défauts de géométrie de la voie

Lestoille, Nicolas 16 October 2015 (has links)
Les voies ferrées sont de plus en plus sollicitées: le nombre de trains à grande vitesse, leur vitesse et leur charge ne cessent d'augmenter, ce qui contribue à la formation de défauts de géométrie sur la voie. En retour, ces défauts de géométrie influencent la réponse dynamique du train et dégradent les conditions de confort. Pour garantir de bonnes conditions de confort, les entreprises ferroviaires réalisent des opérations de maintenance de la voie, qui sont très coûteuses. Ces entreprises ont donc intérêt à prévoir l'évolution temporelle des défauts de géométrie de la voie pour anticiper les opérations de maintenance, et ainsi réduire les coûts de maintenance et améliorer les conditions de transport. Dans cette thèse, on analyse l'évolution temporelle d'une portion de voie par un indicateur vectoriel sur la dynamique du train. Pour la portion de voie choisie, on construit un modèle stochastique local des défauts de géométrie de la voie à partir d'un modèle global des défauts de géométrie et de big data de défauts mesurés par un train de mesure. Ce modèle stochastique local prend en compte la variabilité des défauts de géométrie de la voie et permet de générer des réalisations des défauts pour chaque temps de mesure. Après avoir validé le modèle numérique de la dynamique du train, les réponses dynamiques du train sur la portion de voie mesurée sont simulées numériquement en utilisant le modèle stochastique local des défauts de géométrie. Un indicateur dynamique, vectoriel et aléatoire, est introduit pour caractériser la réponse dynamique du train sur la portion de voie. Cet indicateur dynamique est construit de manière à prendre en compte les incertitudes de modèle dans le modèle numérique de la dynamique du train. Pour identifier le modèle stochastique des défauts de géométrie et pour caractériser les incertitudes de modèle, des méthodes stochastiques avancées, comme par exemple la décomposition en chaos polynomial ou le maximum de vraisemblance multidimensionnel, sont appliquées à des champs aléatoires non gaussiens et non stationnaires. Enfin, un modèle stochastique de prédiction est proposé pour prédire les quantités statistiques de l'indicateur dynamique, ce qui permet d'anticiper le besoin en maintenance. Ce modèle est construit en utilisant les résultats de la simulation de la dynamique du train et consiste à utiliser un modèle non stationnaire de type filtre de Kalman avec une condition initiale non gaussienne / Railways tracks are subjected to more and more constraints, because the number of high-speed trains using the high-speed lines, the trains speed, and the trains load keep increasing. These solicitations contribute to produce track irregularities. In return, track irregularities influence the train dynamic responses, inducing degradation of the comfort. To guarantee good conditions of comfort in the train, railways companies perform maintenance operations of the track, which are very costly. Consequently, there is a great interest for the railways companies to predict the long-time evolution of the track irregularities for a given track portion, in order to be able to anticipate the start off of the maintenance operations, and therefore to reduce the maintenance costs and to improve the running conditions. In this thesis, the long-time evolution of a given track portion is analyzed through a vector-valued indicator on the train dynamics. For this given track portion, a local stochastic model of the track irregularities is constructed using a global stochastic model of the track irregularities and using big data made up of experimental measurements of the track irregularities performed by a measuring train. This local stochastic model takes into account the variability of the track irregularities and allows for generating realizations of the track irregularities at each long time. After validating the computational model of the train dynamics, the train dynamic responses on the measured track portion are numerically simulated using the local stochastic model of the track irregularities. A vector-valued random dynamic indicator is defined to characterize the train dynamic responses on the given track portion. This dynamic indicator is constructed such that it takes into account the model uncertainties in the train dynamics computational model. For the identification of the track irregularities stochastic model and the characterization of the model uncertainties, advanced stochastic methods such as the polynomial chaos expansion and the multivariate maximum likelihood are applied to non-Gaussian and non-stationary random fields. Finally, a stochastic predictive model is proposed for predicting the statistical quantities of the random dynamic indicator, which allows for anticipating the need for track maintenance. This modeling is constructed using the results of the train dynamics simulation and consists in using a non-stationary Kalman-filter type model with a non-Gaussian initial condition. The proposed model is validated using experimental data for the French railways network for the high-speed trains
650

Analyse et optimisation d'un processus à partir d'un modèle BPMN dans une démarche globale de conception et de développement d'un processus métier : application à la dématérialisation de flux courrier du projet GOCD (PICOM) / Integrating a business process analysis and optimization step using BPMN model in a general process design and development approach : application to a paperless mail flow process

Shraideh, Ahmad 08 December 2009 (has links)
Cette thèse a été réalisée dans le cadre du projet « Gestion et Optimisation de la Chaîne Documentaire », projet labellisé par le Pôle de compétitivité des Industries du Commerce. Le projet a pour but de concevoir et de développer un nouveau workflow et un outil d’aide à la décision. Ce système doit être capable de gérer et d’optimiser le flux complet dématérialisé de contrats reçus à COFIDIS.Nous présentons d’abord le framework retenu dans le cadre du projet pour modéliser et implémenter le workflow. En phase de conception BPMN a été choisi. Pour la partie développement, l’utilisation de BPEL a été préconisée pour implémenter et exécuter l'application finale (services web).Cependant la flexibilité offerte par BPMN peut conduire à des propriétés indésirables du processus telles que blocage et inaccessibilité. De plus, BPMN a été conçu pour fournir des modèles Orientés Process. Les données ou les ressources y sont donc peu représentées. En conséquence, l'analyse de performance sur un modèle BPMN est quasi inexistante.Afin de surmonter ces problèmes nous proposons d’insérer dans le framework deux nouvelles phases. Ces deux phases sont appliquées au modèle BPMN. La première est une phase de vérification et de validation et la deuxième une phase d'optimisation. Ces deux phases sont réalisées en transformant le modèle BPMN vers un langage formel. Notre choix dans ce travail a été d'utiliser les réseaux de Petri. Ce qui nous a permis de vérifier et de valider de bonnes propriétés du process. Quant à l’optimisation, nous avons défini une nouvelle variante du problème d’affectation (bin packing problem) et proposé une résolution à intégrer dans le processus d’aide à la décision / This thesis has been realized as a part of the project GOCD (French acronym for Management and optimization of document life cycle) and within the context of the French competitive cluster PICOM. The project aims to design and develop a new paperless workflow system and decision making tool to replace the current paper based system. The new workflow system must manage and optimize received credit demands at COFIDIS.The first part of this thesis presents and discusses a framework to model and implement workflow systems. The proposed framework allows more flexibility in workflow reengineering process and operational analysis for different business process. The proposed framework uses the most recent and promising language to model and execute workflow the Business Process Modeling Notation (BPMN) and Business Process Execution Language (BPEL).The flexibility offered by BPMN can also lead to undesirable properties for business process such as deadlocks and unreachablity. More, BPMN notation was designed to model business process, and little consideration was concentrated to represent data and resources. As a result, carrying out performance analysis on a BPMN model is also limited.To overcome these problems, we propose two additional phases in the reengineering process. They are applied to the target BPMN model. The first phase is verification and validation and the second one is optimization. These two phases are realized by transforming the BPMN model to a formal language, Petri nets. As for optimization, a new variant of bin packing problem has been defined. And we propose to integrate its resolution in a decision making tool

Page generated in 0.0529 seconds