• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 316
  • 90
  • 22
  • 2
  • Tagged with
  • 437
  • 198
  • 105
  • 71
  • 65
  • 54
  • 52
  • 48
  • 44
  • 41
  • 38
  • 37
  • 37
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Contribution à l'optimisation de la maintenance dans un contexte distribué

Alali Alhouaij, Ahmad 16 September 2010 (has links) (PDF)
Les travaux de thèse concernent la mise en oeuvre d'une maintenance distribuée dans les systèmes manufacturiers. Notre problématique s'est portée sur la mise en place d'un service de maintenance destiné à un réseau d'entreprises de plusieurs sites de production. Ces sites sont répartis géographiquement avec des distances importantes intersites, et dont la réparation des parties défaillantes requiert des ressources particulières situées dans un atelier central. Il s'agit donc de la mise en oeuvre d'une démarche de conception d'ateliers de maintenance et dimensionnement des ressources dans un contexte distribué. On se place dans le cas où l'on dispose : 1. d'un atelier de maintenance central qui prend en charge les réparations des équipements défaillants, c'est l'AdM Central ; 2. d'un atelier de maintenance mobile qui effectue des actions de maintenance préventives sur plusieurs sites répartis géographiquement, c'est l'AdM mobile ; 3. un ensemble de sites de production ; Pour un budget donné, l'objectif est de proposer une démarche méthodologique permettant de dimensionner les ressources communes (pièces de rechange et opérateurs de maintenance), de proposer une politique d'inspection adéquate de l'atelier mobile et d'ordonnancer les tâches de maintenance. Nous proposons, dans ce contexte de maintenance distribuée, une méthodologie permettant de minimiser la fonction coût. À partir d'une structure multi-sites, une démarche de modélisation modulaire et d'analyse est proposée. Le réseau d'ateliers de maintenance est modélisé par une forme de Réseaux de Petri Stochastiques Synchronisés (RdPSSy). Passant par le calcul du parcours optimal, l'étape d'évaluation des coûts est effectuée par simulation des modèles développés en utilisant la toolbox Stateflow de Matlab. cas de panne aléatoire sur un site de production est pris en compte.
352

Caractérisation de quatre modèles murins reproduisant des formes humaines légères et sévères de myopathie némaline : une étude anatomique, métabolique et fonctionnelle par spectrométrie et imagerie de résonance magnétique. / Characterization of four mouse models mimicking mild and severe forms of nemaline myopathy : a combined anatomical, metabolic and functional investigation using magnetic resonance spectroscopy and imaging

Gineste, Charlotte 17 September 2013 (has links)
La myopathie némaline (MN) est une maladie neuromusculaire rare représentant la forme la plus répandue de myopathie congénitale. Elle est caractérisée par une faiblesse musculaire et la présence de structures en forme de bâtonnets au sein de la fibre musculaire squelettique. Au cours des dix dernières années, le développement de plusieurs modèles murins de MN a permis de mettre en évidence in vitro plusieurs mécanismes physiopatholgiques responsables, au moins en partie, de la faiblesse musculaire associée à la MN. Ce projet était donc dédié à la caractérisation phénotypique in vivo de la fonction musculaire squelettique de quatre modèles murins de MN reproduisant des formes humaines légères et sévères. A l’aide d’un dispositif expérimental précédemment développé au laboratoire, la fonction musculaire squelettique a été évaluée de manière strictement noninvasive à l’aide des techniques d’imagerie de résonance magnétique (IRM) multimodale (Dixon, T2, imagerie du tenseur de diffusion (DTI)) et de spectroscopie de résonance magnétique du phosphore 31 (SRM-P31) associées à des mesures mécaniques. Nous avons démontré que les altérations observées in vivo ne sont pas nécessairement similaires à celles rapportées in vitro. La SRM-P31 nous a permis de mettre en évidence des altérations métaboliques uniquement pour les formes sévères. Une absence d’infiltration intramusculaire de tissu adipeux a également été observée à l’aide de l’IRM Dixon. Enfin, les techniques d’IRM T2 et de DTI nous ont permis de déterminer des biomarqueurs noninvasifs et quantitatifs qui pourraient, à terme, permettre d’évaluer la sévérité et/ou la progression de la maladie chez les patients atteints de MN. / Nemaline myopathy (NM) is the most common of the non-dystrophic congenital myopathies and is characterized by muscle weakness and accumulation of an electron dense material (rods) within the sarcomeric units. Over the past decade, the generation of mouse models of NM allowed to identify in vitro several physiopathological mechanisms involved, at least in part, in muscle weakness in NM. This project has been devoted to the in vivo phenotypic characterization of the skeletal muscle function of mouse models mimicking mild and severe human forms of NM. Skeletal muscle function was assessed on four mouse models of NM with an original and strictly noninvasive experimental setup designed and built in our laboratory allowing 31P-magnetic resonance spectroscopy (31P-MRS) and multimodal magnetic resonance imaging (MRI) investigations, including Dixon, T2 mapping and Diffusion Tensor Imaging (DTI). Our results suggest that in vitro alterations did not necessarily translate into similar changes in vivo. 31P-MRS illustrated an altered energy metabolism only for the mouse models mimicking severe form of NM. Our Dixon MRI investigations showed that fatty infiltration was negligible. Finally, T2 maps and DTI experiments provided relevant noninvasive and quantitative biomarkers for monitoring the severity and/or the progression of NM in patients.
353

Optimisation et planification de l'approvisionnement en présence du risque de rupture des fournisseurs / Optimization and planning of supply chain under supplier disruption risk

Hamdi, Faiza 02 March 2017 (has links)
La libéralisation des échanges, le développement des moyens de transport de marchandises à faible coût et l’essor économique des pays émergents font de la globalisation (mondialisation) des chaînes logistiques un phénomène irréversible. Si ces chaines globalisées permettent de réduire les coûts, en contrepartie, elles multiplient les risques de rupture depuis la phase d’approvisionnement jusqu’à la phase finale de distribution. Dans cette thèse, nous nous focalisons sur la phase amont. Nous traitons plus spécifiquement le cas d’une centrale d’achat devant sélectionner des fournisseurs et allouer les commandes aux fournisseurs retenus. Chacun des fournisseurs risque de ne pas livrer ses commandes pour des raisons qui lui sont propres (problèmes internes, mauvaise qualité) ou externes (catastrophe naturelle, problèmes de transport). Selon que les fournisseurs sélectionnés livrent ou non leurs commandes, l’opération dégagera un profit ou sera déficitaire. L’objectif de cette thèse, est de fournir des outils d’aide à la décision à un décideur confronté à ce problème tout en prenant en compte le comportement du dit décideur face au risque. Des programmes stochastiques en nombre entiers mixtes ont été proposés pour modéliser ce problème. La première partie du travail porte sur l’élaboration d’un outil visuel d’aide à la décision permettant à un décideur de trouver une solution maximisant le profit espéré pour un risque de perte fixé. La deuxième partie applique les techniques d’estimation et de quantification du risque VAR et CVaR à ce problème. L’objectif est d’aider un décideur qui vise à minimiser la valeur de l’espérance du coût (utilisation de VaR) ou à minimiser la valeur de l’espérance du coût dans le pire des cas (utilisation de VAR et CVaR). Selon nos résultats, il apparaît que le décideur doit prendre en compte les différents scénarios possibles quelque soit leurs probabilités de réalisation, pour que la décision soit efficace. / Trade liberalization, the development of mean of transport and the development economic of emerging countries which lead to globalization of supply chain is irreversible phenomen. They can reduce costs, in return, they multiply the risk of disruption from upstream stage to downstream stage. In this thesis, we focus on the inbound supply chain stage. We treat more specifically the case of a purchasing central to select suppliers and allocate the orders. Each of the suppliers cannot deliver its orders due to internal reasons (poor quality problems) or external reasons (natural disasters, transport problems). According to the selected suppliers deliver their orders or not, the transaction operation will generate a profit or loss. The objective of this thesis is to provide decision support tools to a decision maker faced with this problem by taking into account the behavior of decision maker toward risk. We proposed stochastic mixed integer linear programs to model this problem. In the first part, we focuses on the development of a decision support visual tool that allows a decision maker to find a compromise between maximizing the expected profit and minimize the risk of loss. In the second part, we integrated the techniques of estimation of risk VaR and CVaR in this problem. The objective is to help decision maker to minimize the expected cost and minimize the conditional value at risk simultanously via calculating of VaR. Result shows that the decision maker must tack into account the different scenarios of disruption regardless their probability of realisation.
354

Learning-Based Matheuristic Solution Methods for Stochastic Network Design

Sarayloo, Fatemeh 09 1900 (has links)
No description available.
355

Le soutien parental à l’autonomie et l’honnêteté : le rôle médiateur de l’intériorisation de la valeur de l’honnêteté et de l’analyse coûts/bénéfices

Bureau, Julien 04 1900 (has links)
No description available.
356

L'efficacité du service public dans l'Union Européenne / The efficiency of public service in European Union

Jury, Fabrice 07 December 2017 (has links)
Le droit de l’Union, avant tout économique, soumet les services publics des Etats membres à une profonde démarche d’efficacité reposant sur leur soumission à la concurrence. Cette logique libérale, a priori étrangère à ces activités protégées, imprègne dorénavant l’intérêt général qui les anime. Elle a pour objectif fondamental d’assurer la pleine satisfaction de l’usager qui voit son rôle renouvelé dans cet ordre juridique supranational. Afin de garantir la qualité du service public, les institutions imposent également aux autorités une optimisation de leurs moyens dont la gestion doit être efficiente. Cette recherche d’efficacité implique alors une utilisation accrue de l’évaluation qui modifie la philosophie du service public en lui fournissant une nouvelle légitimité mais aussi une nouvelle juridicité dans les droits nationaux. / European law, mainly economic, submit public services of European members to efficiency logical with submission to themselves to liberalization. This free-market policy, in theory unconcerned by public services, now affect these services of general interest. This libearal dynamic set the aim of satisfaying customers who have a updated role in European Union. For quality of public service, European institutions require to States, as well, a cost optimization for an efficient administration of their public services. This goal involve to use more frequently evaluation process and to modify public services philosophy for a legitimization, including juridical legitimization, in States law.
357

Enhancing supervised learning with complex aggregate features and context sensitivity / Amélioration de l'apprentissage supervisé par l'utilisation d'agrégats complexes et la prise en compte du contexte

Charnay, Clément 30 June 2016 (has links)
Dans cette thèse, nous étudions l'adaptation de modèles en apprentissage supervisé. Nous adaptons des algorithmes d'apprentissage existants à une représentation relationnelle. Puis, nous adaptons des modèles de prédiction aux changements de contexte.En représentation relationnelle, les données sont modélisées par plusieurs entités liées par des relations. Nous tirons parti de ces relations avec des agrégats complexes. Nous proposons des heuristiques d'optimisation stochastique pour inclure des agrégats complexes dans des arbres de décisions relationnels et des forêts, et les évaluons sur des jeux de données réelles.Nous adaptons des modèles de prédiction à deux types de changements de contexte. Nous proposons une optimisation de seuils sur des modèles à scores pour s'adapter à un changement de coûts. Puis, nous utilisons des transformations affines pour adapter les attributs numériques à un changement de distribution. Enfin, nous étendons ces transformations aux agrégats complexes. / In this thesis, we study model adaptation in supervised learning. Firstly, we adapt existing learning algorithms to the relational representation of data. Secondly, we adapt learned prediction models to context change.In the relational setting, data is modeled by multiples entities linked with relationships. We handle these relationships using complex aggregate features. We propose stochastic optimization heuristics to include complex aggregates in relational decision trees and Random Forests, and assess their predictive performance on real-world datasets.We adapt prediction models to two kinds of context change. Firstly, we propose an algorithm to tune thresholds on pairwise scoring models to adapt to a change of misclassification costs. Secondly, we reframe numerical attributes with affine transformations to adapt to a change of attribute distribution between a learning and a deployment context. Finally, we extend these transformations to complex aggregates.
358

Optimisation de l’architecture de systèmes embarqués par une approche basée modèle / Architecture Optimization of Embedded Systems with a Model Based Approach

Leserf, Patrick 02 May 2017 (has links)
L’analyse de compromis d’un modèle système a pour but de minimiser ou de maximiser différents objectifs tels que le coût ou les performances. Les méthodes actuelles de type OOSEM avec SysML ou ARCADIA sont basées sur la classification ; il s’agit de définir les différentes variantes de l’architecture d’un système de base puis d’analyser ces variantes. Dans ces approches, les choix d’architecture sont contraints : la plateforme d’exécution et la topologie sont déjà figées. Nous proposons la notion de « points de décision » pour modéliser les différents choix du système, en utilisant de nouveaux stéréotypes. L’avantage est d’avoir une modélisation plus « compacte » des différentes variantes et de piloter l’exploration des variantes en utilisant des contraintes. Lorsque le concepteur définit l’architecture du système, des points de décisions sont insérés dans le modèle du système. Ils permettent de modéliser la redondance ou le choix d’une instance pour un composant, les variations des attributs d’un composant, ou l’allocation des activités sur les blocs. Les fonctions objectifs sont définies dans un contexte d’optimisation à l’aide du diagramme paramétrique de SysML. Nous proposons des transformations du modèle SysML vers un problème de satisfaction de contraintes pour l’optimisation (CSMOP) dont la résolution nous permet d’obtenir l’ensemble des architectures optimales. Cette transformation est implantée dans un démonstrateur (plug-in Eclipse) permettant une utilisation conjointe de l’outil Papyrus et de solveurs, disponibles sous forme de logiciels libres. La méthode est illustrée avec des cas d’étude constitués d’une caméra stéréoscopique puis d’un drone, l’ensemble étant modélisé avec Papyrus. / Finding the set of optimal architectures is an important challenge for the designer who uses the Model-Based System Engineering (MBSE). Design objectives such as cost, performance are often conflicting. Current methods (OOSEM with SysML or ARCADIA) are focused on the design and the analysis of a particular alternative of the system. In these methods, the topology and the execution platform are frozen before the optimization. To improve the optimization from MBSE, we propose a methodology combining SysML with the concept of “decision point”. An initial SysML model is complemented with “decisions points” to show up the different alternatives for component redundancy, instance selection and allocation. The constraints and objective functions are also added to the initial SysML model, with an optimiza-tion context and parametric diagram. Then a representation of a constraint satisfaction problem for optimization (CSMOP) is generated with an algorithm and solved with an existing solver. A demonstrator implements this transformation in an Eclipse plug-in, combining the Papyrus open-source tool and CSP solvers. Two case studies illustrate the methodology: a stereoscopic camera sensor module and a mission controller for an Unmanned Aerial Vehi-cle (UAV).
359

Application des méthodes fiabilistes à l'analyse et à la synthèse des tolérances / Application of reliable methods to the analysis and synthesis of tolerances

Beaucaire, Paul 29 November 2012 (has links)
En conception de systèmes mécaniques, la phase de cotation fonctionnelle consiste à affecter des cotes, constituées d’une valeur nominale et d’un intervalle de tolérance, à des dimensions de pièces. En particulier, l’analyse des tolérances consiste à vérifier que les intervalles de tolérance choisis permettent le respect de la fonctionnalité du mécanisme. A l’inverse, la synthèse des tolérances vise à déterminer ces intervalles de tolérance, si possible de manière optimale, permettant le respect des exigences fonctionnelles. Les approches statistiques traditionnelles, bien que très utiles en phase de préconception, ne sont pas capables d’estimer avec précision le risque de non qualité. Cette thèse aborde ces problèmes selon un angle de vue différent, non plus pour garantir le respect d’exigences fonctionnelles, mais pour garantir le Taux de Non-Conformité (TNC) du mécanisme. Il s’agit de la probabilité que l’exigence fonctionnelle ne soit pas respectée. Les méthodes fiabilistes, s’appuyant sur la théorie des probabilités, permettent un calcul précis et efficace de cet indicateur. L’objectif de cette thèse est d’explorer le domaine de l’analyse et de la synthèse des tolérances afin d’identifier et d’exposer les apports des méthodes fiabilistes sur ces problématiques. Dans ces travaux de thèse, différents outils fiabilistes sont mis à disposition permettant l’analyse des tolérances de tous types de mécanismes avec ou sans jeu. La théorie probabiliste permet une modélisation très complète des dimensions des pièces. En particulier, l’approche APTA (Advanced Probability-based Tolerance Analysis of products) est développée afin de prendre en compte l’évolution aléatoire de certains paramètres de modélisation, notamment les décalages de moyenne, responsables de fortes variations du TNC. L’analyse des tolérances étant plus complexe pour les mécanismes avec jeux, une méthodologie spécifique a été développée basée sur une décomposition en situations de points de contacts et l’utilisation d’une méthode fiabiliste système. Différents indices de sensibilité sont aussi proposés afin d’aider à identifier les cotes ayant le plus d’influence sur le TNC d’un mécanisme. Enfin, l’optimisation du coût de production, sous contrainte de TNC, permet une synthèse des tolérances optimale. Les gains potentiels en termes de coût dépassent 50% par rapport aux conceptions initiales tout en maitrisant le niveau de qualité du produit. Les sociétés RADIALL SA et VALEO Système d’Essuyages, concepteurs et fabricants de produits pour l’automobile et l’aéronautique, ont proposé des cas d’études sur lesquels est démontrée la pertinence des travaux effectués. Sur la base de ces travaux, Phimeca Engineering, spécialisée dans l’ingénierie des incertitudes, développe et commercialise un outil informatique professionnel. / To design mechanical systems, functional dimensioning and tolerancing consists in allocating a target value and a tolerance to part dimensions. More precisely, tolerance analysis consists in checking that chosen tolerances allow the mechanism to be functional. In the opposite, the tolerance synthesis goal is to determine those tolerances, optimaly if possible, such as functional requirements are respected. Traditional statistical approaches are very useful in pre-design phases, but are incapable of estimating precisely non-quality risks. This PhD thesis adresses this problem from a different point of view. The objective is no longer to respect functional requirements but to guarantee the Non-Conformity Rate (NCR) of the mechanism. It is the probability that the functional requirement is not respected. Reliability methods, based on probabilistic theory, allow a precise and efficient calculation of the NCR. The main goal of this thesis is to explore tolerance analysis and synthesis domains in order to identify potential contributions of reliability methods to these issues. In this work, different reliability tools are provided enabling tolerance analysis of all kind of mechanisms with or without gaps. The probability theory allows a detailed modeling of parts dimensions. In particular, the APTA (Advanced Probability-based Tolerance Analysis of products) approach is designed to take into account random variations of some parameters such as mean shifts which influence highly the NCR. As tolerance analysis is more complex for mechanisms with gaps, a specific method is designed based on a decomposition of contact points situations and the use of a reliability system method. Several sensitivity indexes are also proposed to identify the leading dimensions on the NCR. The optimization of the production cost, under a NCR constraint, enables an optimal tolerance synthesis. The potential benefits in terms of costs exceed 50% compared to initial designs while keeping under control quality levels of products. Companies RADIALL SA and VALEO Wiping Systems, designers and manufacturers of products for the automotive and aeronautic industries, have provided case studies on which is demonstrated the relevance of the presented work. Based on this work, the company Phimeca Engineering, specialized in uncertainties, is developing and commercializing a professional computer tool.
360

Predicting post-release software faults in open source software as a menas of measuring intrinsic software product quality / Prédire les défauts Post-Release de logiciels à code ouvert comme méthode pour mesurer la qualité intrinsèque du produit logiciel

Ndenga Malanga, Kennedy 22 November 2017 (has links)
Les logiciels défectueux ont des conséquences coûteuses. Les développeurs de logiciels doivent identifier et réparer les composants défectueux dans leurs logiciels avant de les publier. De même, les utilisateurs doivent évaluer la qualité du logiciel avant son adoption. Cependant, la nature abstraite et les multiples dimensions de la qualité des logiciels entravent les organisations de mesurer leur qualités. Les métriques de qualité logicielle peuvent être utilisées comme proxies de la qualité du logiciel. Cependant, il est nécessaire de disposer d'une métrique de processus logiciel spécifique qui peut garantir des performances de prédiction de défaut meilleures et cohérentes, et cela dans de différents contextes. Cette recherche avait pour objectif de déterminer un prédicteur de défauts logiciels qui présente la meilleure performance de prédiction, nécessite moins d'efforts pour la détection et a un coût minimum de mauvaise classification des composants défectueux. En outre, l'étude inclut une analyse de l'effet de la combinaison de prédicteurs sur la performance d'un modèles de prédiction de défauts logiciels. Les données expérimentales proviennent de quatre projets OSS. La régression logistique et la régression linéaire ont été utilisées pour prédire les défauts. Les métriques Change Burst ont enregistré les valeurs les plus élevées pour les mesures de performance numérique, avaient les probabilités de détection de défaut les plus élevées et le plus faible coût de mauvaise classification des composants. / Faulty software have expensive consequences. To mitigate these consequences, software developers have to identify and fix faulty software components before releasing their products. Similarly, users have to gauge the delivered quality of software before adopting it. However, the abstract nature and multiple dimensions of software quality impede organizations from measuring software quality. Software quality metrics can be used as proxies of software quality. There is need for a software process metric that can guarantee consistent superior fault prediction performances across different contexts. This research sought to determine a predictor for software faults that exhibits the best prediction performance, requires least effort to detect software faults, and has a minimum cost of misclassifying components. It also investigated the effect of combining predictors on performance of software fault prediction models. Experimental data was derived from four OSS projects. Logistic Regression was used to predict bug status while Linear Regression was used to predict number of bugs per file. Models built with Change Burst metrics registered overall better performance relative to those built with Change, Code Churn, Developer Networks and Source Code software metrics. Change Burst metrics recorded the highest values for numerical performance measures, exhibited the highest fault detection probabilities and had the least cost of mis-classification of components. The study found out that Change Burst metrics could effectively predict software faults.

Page generated in 0.0243 seconds