• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 234
  • 105
  • 39
  • Tagged with
  • 377
  • 183
  • 105
  • 91
  • 60
  • 58
  • 52
  • 46
  • 42
  • 40
  • 39
  • 38
  • 38
  • 34
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Robust and stable optimization for parallel machine scheduling problems / Optimisation robuste et analyse de stabilité pour les problèmes d'ordonnancement sur machines parallèles

Naji, Widad 02 May 2018 (has links)
Scheduling on unrelated parallel machines is a common problem in many systems (as semi-conductors manufacturing,multiprocessor computer applications, textile industry, etc.). In this thesis, we consider two variantsof this problem under uncertain processing time. In the first case, each job can be split into continuoussub-jobs and processed independently on the machines with allowed overlappinf. In the second case whichis termed preemption, we prohibit the overlapping. From a mathematical viewpoint, the splitting problem isa relaxed version of the preemptive problem. The objective is to minimize the makespan.The deterministic linear formulations provided by the literature allow to solve these problems in polynomialtimes under the hypothesis of certainty. But, when we consider uncertain processing times, thesealgorithms suffer from some limitations. Indeed, the solutions compouted based on a nominal instance,supposed to be certain, turn usually to be suboptimal when applied to the actual realization of processingtimes.We incorporate the uncertain processing times in these problems without making any assumption ontheir distribution. Hence, we use discrete scenarios to represent the uncetain processing times and we adopta proactive approach to provide robust solutions. We use special case policies that are commongly used inthe industry to compute robust solutions. We show that the solutions based on some of those policies arepotentially good in terms of robustness according to the worst-case makespan, especially the scenario smaxsolution under which all the processing times are set to their maximal values. However, the robustness costsof these solutions are not satisfying. Thus, we propose to compute optimal robust solutions. For this purpose,we use a mathematical trick that allows us to formulate and solve, in polynomila times, the robust versionsof the considered scheduling problems. Moreover, the computational results affirm that the robustness costof the optimal solution is not usually very high.Moreover, we evaluate the stability of the robust solutions under a new scenario induced by variations.In fact, the decision-maker is only responsible for the consequences of the decisions when the processingtime realizations are within the represented uncertainty set. Thus, we define stability of a robust solution asits ability to cover a new scenario with minor deviations regarding its structure and its performance.The global motivation of this thesis is then to provide a decision support to help decision maker computerobust solutions and choose among these robust solutions those with the most stable structure and the moststable performance. / Scheduling on unrelated parallel machines is a common problem in many systems (as semi-conductors manufacturing,multiprocessor computer applications, textile industry, etc.). In this thesis, we consider two variantsof this problem under uncertain processing time. In the first case, each job can be split into continuoussub-jobs and processed independently on the machines with allowed overlappinf. In the second case whichis termed preemption, we prohibit the overlapping. From a mathematical viewpoint, the splitting problem isa relaxed version of the preemptive problem. The objective is to minimize the makespan.The deterministic linear formulations provided by the literature allow to solve these problems in polynomialtimes under the hypothesis of certainty. But, when we consider uncertain processing times, thesealgorithms suffer from some limitations. Indeed, the solutions compouted based on a nominal instance,supposed to be certain, turn usually to be suboptimal when applied to the actual realization of processingtimes.We incorporate the uncertain processing times in these problems without making any assumption ontheir distribution. Hence, we use discrete scenarios to represent the uncetain processing times and we adopta proactive approach to provide robust solutions. We use special case policies that are commongly used inthe industry to compute robust solutions. We show that the solutions based on some of those policies arepotentially good in terms of robustness according to the worst-case makespan, especially the scenario smaxsolution under which all the processing times are set to their maximal values. However, the robustness costsof these solutions are not satisfying. Thus, we propose to compute optimal robust solutions. For this purpose,we use a mathematical trick that allows us to formulate and solve, in polynomila times, the robust versionsof the considered scheduling problems. Moreover, the computational results affirm that the robustness costof the optimal solution is not usually very high.Moreover, we evaluate the stability of the robust solutions under a new scenario induced by variations.In fact, the decision-maker is only responsible for the consequences of the decisions when the processingtime realizations are within the represented uncertainty set. Thus, we define stability of a robust solution asits ability to cover a new scenario with minor deviations regarding its structure and its performance.The global motivation of this thesis is then to provide a decision support to help decision maker computerobust solutions and choose among these robust solutions those with the most stable structure and the moststable performance.
92

Contribution à la conception de coupleurs magnétiques robustes pour convertisseurs multicellulaires parallèles / Pre-design methodology of robust intercell transformers (ICT) for parallel multicell converters

Sanchez, Sébastien 24 March 2015 (has links)
Face aux enjeux énergétiques actuels, l’électronique de puissance est un domaine de recherche de premier plan. La relative fragilité des composants présents dans les chaînes de conversion implique néanmoins de devoir prendre en compte la gestion des défaillances dès la phase de conception. La défaillance d'un composant est une situation hautement critique tant sur le plan de la sécurité environnante que sur le plan de l'indisponibilité du système qui en découle. Cette problématique de sûreté de fonctionnement constitue la ligne directive de ce travail de thèse, visant à imaginer, et concevoir des solutions permettant de sécuriser ces structures en présence de défauts. Dans cette thèse, nous étudions de nouveaux composants magnétiques offrant un excellent compromis entre la densité de puissance traitée et rendement de conversion, mais très sensibles à toutes perturbations électriques. Une méthode de pré-dimensionnement des composants magnétiques a été développée et des solutions ont été apportés pour sécuriser et maintenir le fonctionnement de la chaîne de conversion suite à l’apparition de plusieurs défauts. / In the research field, power electronics is an important issue in the actual energy challenges. Nowadays, new converters, called « multilevel or multicell converters », are used in many applications requiring high-current with high-power density. This is due to their high frequency performances and good waveforms signals. The main advantages of such converters concern the high efficiency and good system integration. Most embedded systems are required to maintain operation even if failures or faults occur. New magnetic devices called InterCell Transformers (ICTs) in multicell converters help to improve the efficiency and compactness. Nevertheless, such magnetic components are inherently sensitive to any impecfection coming from the converter. The goal of this PhD thesis is to bring solutions to make ICTs more fault tolerant. Therefore, a pre-design methodology for a robust ICT is presented in order to maintain the operation after the occurrence of one or several faults. Several solutions are presented and detailled
93

Contribution à l'analyse des mécanismes de défaillance lors de décharges électrostatiques et de radiations aux ions lourds de composants MESFET en carbure de silicium / Tribute to failure mechanism analyze during electrosttic discharge or heavy ion radiation on silicon carbide MESFET

Phulpin, Tanguy 26 January 2017 (has links)
La gestion de l'énergie électrique est au cœur des enjeux environnementaux. L'éclosion de semi-conducteurs à grand gap comme le carbure de silicium (SiC) permet la réalisation de composants aux performances supérieures à celles des composants en silicium pour l'électronique de puissance. Toutefois, le comportement de ces dispositifs lors de décharges électrostatiques (ESD) ou lors de radiations est mal connu et nécessite des études spécifiques. Dans ces travaux, plusieurs composants MESFET SiC ont ainsi été testés face aux ESD et l'étude des mécanismes de défaillance a montré soit la défaillance de l'oxyde de passivation, soit la sublimation du SiC suite au déclenchement d'une structure parasite. L'intégration d'une diode Zener sur le drain du MESFET a ainsi été testée et validée comme protection ESD. La simulation démontre que la protection est inefficace par rapport à la tenue aux radiations d'ions lourds. Assurer la robustesse de ces technologies n'apparaît pas plus simple que pour les composants en silicium. Des solutions sont toutefois envisageables pour aider les concepteurs à améliorer la robustesse aux ESD, bien que des études supplémentaires restent à mener. / Power management is nowadays crucial with the global warming and the electronic needs of the society. Wideband gap semi-conductors like Silicon Carbide (SiC) are emerging in power electronic landscape because of their better properties in comparison with Silicon. Nevertheless reliability and knowledge about internal physic during electrostatic discharge (ESD) or radiation event is still missing and need specific studies. In this work, several SiC MESFET have been tested and results show two mains failure mechanism. First the passivation oxide clamping, and secondly the SiC sublimation induced by a parasitic structure in the device. An ESD protection was tested and validated. Unfortunately, this solution isn't efficient for heavy ion protection. Indeed, no impact on the radiation robustness is noticed on the MESFET during a radiation event. SiC ESD reliability doesn't look better than for Silicon devices. ESD robustness improvements are proposed in this work even if integration of this MESFET is still required to validate the improvement.
94

Analyse et amélioration de la robustesse des circuits asynchrones QDI / Robustness analysis and improvement of QDI self-timed circuits

Ouchet, Florent 02 December 2011 (has links)
La conception de circuits intégrés asynchrones, notamment de circuits QDI (Quasi-Delay Insensitive), offrent la possibilité de disposer de circuits très robustes aux conditions environnementales (tension, température) ainsi qu'aux variations des procédés de fabrication. Ces bonnes propriétés sont dues à une conception ne comportant pas d'hypothèses temporelles à l'exception de la fourche isochrone --hypothèse finalement très faible. Ainsi, une variation de la tension se traduit par une réduction de la vitesse de fonctionnement sans pour autant altérer la fonctionnalité du circuit. Cette thèse étudie la robustesse des circuits asynchrones dans des environnements de fonctionnement très sévères susceptibles de mettre en défaut la correction fonctionnelle des circuits asynchrones QDI. Cette situation se présente par exemple quand les transitions des signaux sur les portes deviennent très lentes. Cette situation exceptionnelle peut-être directement provoquée par un environnement agressif (émission électromagnétique, particules à haute énergie, ...) ou par les effets du vieillissement du circuit intégré. Dans un contexte où le circuit est employé à des fins sécuritaires telles que les applications aéronautiques, spatiales ou médicales, il s'avère nécessaire de quantifier les limites de fonctionnement des circuits asynchrones et de trouver des moyens pour améliorer leur robustesse. Ce manuscrit propose une étude complète du comportement des circuits asynchrones et propose des techniques de conception pour en améliorer la robustesse. Les résultats obtenus ont été validés sur des technologies CMOS avancées de ST Microelectronics par des simulations analogiques d'une part, et avec l'aide d'un outil de preuve formelle développé à l'Université British Columbia au Canada d'autre part. / The design of self-timed integrated circuits, including QDI (Quasi-Delay Insensitive) circuits, lead to robust circuits against variabilities in manufacturing processes and in running conditions (voltage, temperature). These qualities are consequences of the synthesys flow that does not create timing assumptions excepted a weak one related to isochronic forks. In self-timed circuits, the running speed automatically adjusts to the available supply voltage with no behavioral changes. This work focuses on the self-timed circuit robustness in the context of environments where running conditions can make QDI self-timed circuits failing. For instance, this happens when transition speeds at gate entrances become very slow. This uncommonly encountered situation can be triggered in harsh environments (with electromagnetic disturbences, high-energy particulesdots) or because of age effects on manufactured chips. If the integrated circuit is designed for critical operations such as in aeronautical, spatial or medical applications, the self-timed circuit limits have to be carrefully evaluated and eventually shifted in order to improve the circuit robustness. This publication includes a complete study of the self-timed circuit behaviors and some design proposals in order to enhance the circuit robustness. Experimental results were obtained firstly, during analog simulations targetting advanced CMOS technologies from STMicroelectronics and secondly, using formal methods implemented in a tool from the University of British Columbia.
95

Robustesse par conception de circuits implantés sur FPGA SRAM et validation par injection de fautes / Robustness improvement by designing circuits implemented on SRAM FPGAs and validation by fault injection

Ben Jirad, Mohamed 01 July 2013 (has links)
Cette thèse s'intéresse en premier lieu à l'évaluation des effets fonctionnels des erreurs survenant dans la mémoire SRAM de configuration de certains FPGAs. La famille Virtex II Pro de Xilinx est utilisée comme premier cas pratique d'expérimentation. Des expérimentations sous faisceau laser nous ont permis d'avoir une bonne vue d'ensemble sur les motifs d'erreurs réalistes qui sont obtenus par des sources de perturbations réelles. Une méthodologie adaptée d'injection de fautes a donc été définie pour permettre une meilleure évaluation, en phase de conception, de la robustesse d'un circuit implanté sur ce type de technologie. Cette méthodologie est basée sur de la reconfiguration dynamique. Le même type d'approche a ensuite été évalué sur plusieurs cibles technologiques, ce qui a nécessité le développement de plusieurs environnements d'injection de fautes. L'étude a pour la première fois inclus la famille AT40K de ATMEL, qui permet un type de reconfiguration unique et efficace. Le second type de contribution concerne l'augmentation à faible coût de la robustesse de circuits implantés sur des plateformes FPGA SRAM. Nous proposons une approche de protection sélective exploitant les ressources du FPGA inutilisées par l'application. L'approche a été automatisée sur plusieurs cibles technologiques (Xilinx, Altera) et l'efficacité est analysée en utilisant les méthodes d'injection de fautes précédemment développées. / This thesis focuses primarily on the evaluation of the functional effects of errors occurring in the SRAM configuration memory of some FPGAs. Xilinx Virtex II Pro family is used as a first case study. Experiments under laser beam allowed us to have a good overview of realistic error patterns, related to real disturbance sources. A suited fault injection methodology has thus been defined to improve design-time robustness evaluations of a circuit implemented on this type of technology. This methodology is based on runtime reconfiguration. The approach has then been evaluated on several technological targets, requiring the development of several fault injection environments. The study included for the first time the ATMEL AT40K family, with a unique and efficient reconfiguration mode. The second type of contribution is focused on the improvement at low cost of the robustness of designs implemented on SRAM-based FPGA platforms. We propose a selective protection approach exploiting resources unused by the application. The approach has been automated on several technological targets (Xilinx, Altera) and the efficiency has been analyzed by taking advantage of the fault injection techniques previously developed.
96

Vers des protocoles de tolérance aux fautes Byzantines efficaces et robustes / Efficient and Robust Byzantine Fault Tolerant Replication Protocols

Aublin, Pierre-Louis 21 January 2014 (has links)
Les systèmes d'information deviennent de plus en plus complexes et il est difficile de les garantir exempts de fautes. La réplication de machines à états est une technique permettant de tolérer les fautes, quelque soit leur nature, qu'elles soient logicielles ou matérielles. Cette thèse traite des protocoles de réplication de machines à états tolérant les fautes arbitraires, également appelées Byzantines. Ces protocoles doivent relever deux défis : (i) ils doivent être efficaces, c'est-à-dire que leurs performances doivent être les meilleurs possibles, afin de masquer le coût supplémentaire dû à la réplication et (ii) ils doivent être robustes, c'est-à-dire qu'une attaque ne doit pas faire baisser leurs performances de manière importante. Dans cette thèse nous observons qu'aucun protocole ne relève ces deux défis en même temps : les protocoles que nous connaissons aujourd'hui sont soit conçus pour être efficaces au détriment de leur robustesse, soit conçus pour être robustes au détriment de leurs performances. Une première contribution de cette thèse est la conception d'un nouveau protocole qui réunit le meilleur des deux mondes. Ce protocole, R-Aliph, combine un protocole efficace mais peu robuste avec un protocole robuste afin de fournir un protocole à la fois efficace et robuste. Nous évaluons ce protocole de manière expérimentale et montrons que ses performances en cas d'attaque sont égales aux performances du protocole robuste sous-jacent. De plus, ses performances dans le cas sans faute sont très proches des performances du protocole connu le plus efficace : la différence maximale de débit est inférieure à 6%. Dans la seconde partie de cette thèse nous observons que les protocoles conçus pour être robustes sont peu robustes en réalité. En effet, il est possible de concevoir une attaque dans laquelle leur perte de débit est supérieure à 78%. Nous identifions le problème de ces protocoles et nous concevons un nouveau protocole plus robuste que les précédents : RBFT. L'idée de base de ce protocole est d'exécuter en parallèle plusieurs instances d'un même protocole. Les performances de ces différentes instances sont surveillées de près afin de détecter tout comportement malicieux. Nous évaluons RBFT dans le cas sans faute et en cas d'attaque. Nous montrons que ses performances dans le cas sans faute sont comparables aux performances des protocoles considérés comme robustes. De plus, nous observons que la dégradation maximale de performance qu'un attaquant peut causer sur le système est inférieure à 3%, même dans le cas de la pire attaque possible. / Information systems become more and more complex and it is difficult to guarantee that they are bug-free. State Machine Replication is a technique for tolerating faults, regardless their nature, whether they are software or hardware faults. This thesis studies Fault Tolerant State Machine Replication protocols that tolerate arbitrary, also called Byzantine, faults. These protocols face two challenges: (i) they must be efficient, i.e., their performance have to be the best ones, in order to mask the cost of the replication and (ii) they must be robust, i.e., an attack should not cause an important performance degradation. In this thesis, we observe that no protocol addresses both of these challenges: current protocols are either designed to be efficient but fail to be robust, or designed to be robust but exhibit poor performance. A first contribution of this thesis is the design of a new protocol which achieves the best of both worlds. This protocol, R-Aliph, combines an efficient but not robust protocol with a protocol designed to be robust. The result is a protocol that is both robust and efficient. We evaluate this protocol experimentally and show that its performance under attack equals the performance of the underlying robust protocol. Moreover, its performance in the fault-free case is close to the performance of the best known efficient protocol: the maximal throughput difference is less than 6%. In the second part of this thesis we analyze the state-of-the-art robust protocols and demonstrate that they are not effectively robust. Indeed, one can run an attack on each of these protocols such that the throughput loss is at least equal to 78%. We identify the problem of these protocols and design a new, effectively robust, protocol called RBFT. The main idea of this protocol is to execute several instances of a robust protocol in parallel and closely monitor their performance, in order to detect a malicious behaviour. We evaluate RBFT in the fault-free case and under attack. We observe that its performance in the fault-free case is equivalent to the performance of the other so-called robust BFT protocols. Moreover, we show that the maximal throughput degradation, under the worst possible attack, is less than 3%.
97

Contribution à l'optimisation en conception préliminaire de produit / Contribution to optimization in product's preliminary design

Mazhoud, Issam 07 May 2014 (has links)
L'optimisation en conception de produit constitue une activité à forte valeur ajoutée en entreprise. Ceci est d'autant plus important qu'elle est appliquée dans les premières phases du processus de conception. Les travaux dans cette thèse se placent dans ce contexte et proposent des outils adaptés d'aide à la décision en pré-dimensionnement de produits suivant deux critères: présence ou non de fonctionnelles dans le modèle, prise en compte ou non des incertitudes dans le modèle. Une méthode à base de calcul d'intervalles et de propagation de contraintes qui permet de faire de l'optimisation déterministe est introduite. Cette méthode permet de traiter les modèles d'optimisation sans fonctionnelles et sans prise en compte d'incertitudes. Une reformulation qui permet d'améliorer la convergence de l'algorithme est introduite. Une méthode d'optimisation stochastique à base d'essaims particulaires est présentée pour traiter les modèles de plus grande dimension. Un nouveau mécanisme de gestion de contraintes est introduit. Cet algorithme a aussi été étendu pour traiter les problèmes de conception en présence de contraintes du type équations différentielles. Afin de traiter les incertitudes dans les modèles, une méthode d'optimisation robuste est présentée. Elle combine un algorithme d'optimisation stochastique avec une méthode de propagation d'incertitude (PoV). Cette méthode de propagation d'incertitude est étendu aux modèles incluant des fonctionnelles. / The optimization in product design is a high added-value activity. This is all the more important when it is performed at the early stages of the design process. The work presented in this thesis is placed in this context. It proposes adapted decision making tools in preliminary design following two criteria: whether or not the model contains functionals, and whether it takes into considerations the uncertainties. A method based on interval arithmetic and constraint propagation allowing to perform deterministic global optimization is introduced. This method allows handling optimization models without functionals and without considering uncertainties. A reformulation that permits to improve the algorithm convergence is introduced. A stochastic optimization method based on particular swarms is introduced in order to handle higher dimensional problems. A new constraint handling mechanism is introduced and tested on engineering problems. This algorithm has also been extended to design problems with ordinary differential equations constraints. In order to consider uncertainties, a robust optimization method is introduced. It combines a stochastic optimization method with an uncertainty propagation method called PoV. An extension of PoV to models involving functionals is introduced.
98

Etude de la robustesse des graphes sociaux émergents / Study of the robustness of emerging social graphs

Lemmouchi, Slimane 26 December 2012 (has links)
Les réseaux sont présents dans pratiquement tous les aspects de la vie. Le monde quinous entoure comporte énormément de réseaux. Par exemple, les réseaux de communicationconstitués de téléphones, les réseaux électriques, les réseaux d’ordinateurs, le réseaudes lignes aériennes, ... etc, sont autant de réseaux importants dans la vie de chaque jour.Le cadre mathématique des réseaux est bien approprié pour décrire plusieurs systèmescomposés d’un grand nombre d’entités qui interagissent entre elles. Chaque entité est représentéepar un noeud du réseau et chaque interaction par un lien entre deux noeuds. Ilest donc possible de modéliser ces réseaux par des graphes. Pour la plupart de ces réseaux,la difficulté provient principalement du grand nombre d’entités, ainsi que de la façon dontelles sont interconnectées. Une approche naturelle pour simplifier de tels systèmes consistedonc à réduire leur taille. Cette simplification n’est pas faite aléatoirement, mais de tellefaçon à ce que les noeuds de la même composante aient plus de liens entre eux qu’avec lesautres composantes. Ces groupes de noeuds ou composantes sont appelés communautésd’intérêt. Notre thèse se positionne dans le domaine de l’étude des graphes sociaux. Elle s’intéresseprincipalement à l’étude de la robustesse des structures sociales émergentes dansles réseaux d’interactions. L’aspect de la robustesse des réseaux constitue un challengetrès important pour comprendre leur fonctionnement, le comportement des entités lesconstituant et surtout pour comprendre les interactions qui peuvent se produire entreelles, permettant l’émergence de certains comportements qui n’étaient pas du tout prévisiblesau préalable. Actuellement, les études de la robustesse des réseaux qui existentdans la littérature traitent cet aspect du point de vue purement structurel, i.e. toutes lesperturbations sont appliquées soit sur les noeuds, soit sur les arêtes du graphe. Pour cequi est de notre étude, nous nous sommes intéressés à définir une nouvelle stratégie qui sebase sur des perturbations appliquées sur les paramètres qui permettent l’émergence desgraphes sociaux dans les réseaux d’interaction. Cette façon d’aborder l’aspect robustessedes graphes constitue une nouvelle manière d’évaluer et de quantifier les changements quipeuvent intervenir dans les structures de ces graphes. / Networks are present in virtually all aspects of life. The world surrounding usincludes to many networks. For example, communication networks constituted of phones,electrical networks, computers networks, aerial lines network, ? etc, are such importantnetworks in our daily life. The mathematical framework of networks is well appropriatedto describe different systems composed of many entities interacting with each other. Eachentity is represented by a network node and each interaction by a link between twonodes. Therefore, it is possible to model these networks by graphs. For most of thesenetworks, the difficulty comes mainly from the large number of entities and the way theyare interconnected. A natural approach to simplify such systems is therefore to reducetheir size. This simplification is not made randomly, but in such a way that the nodes ofthe same component would have more connections between themselves than with othercomponents. These groups of nodes or components are called communities of interest.Our thesis is positioned in the field of social graphs study. It is mainly interested instudying the robustness of social structures emerging in interaction networks. The aspectof networks robustness is a very important challenge to understand their functioning,the behavior of the constituting entities and especially to understand the interactionsthat may occur between them, allowing the emergence of certain behaviors that were notpredictable at all in advance. Currently, studies of networks robustness that exist in theliterature treat this aspect from a purely structural point of view, ie, all perturbations areapplied either on nodes or on the edges of the graph. In terms of our study, we focused ondefining a new strategy based on perturbations applied on the parameters that allow theemergence of social graphs in interaction networks. This way to approach the robustnessappearance of the graphs is a new way to assess and quantify the changes that may occurin the structures of these graphs.
99

Contribution à la conception robuste de véhicules en choc frontal : détection de défaillances en crash

Rosenblatt, Nicolas 27 June 2012 (has links)
Ce mémoire s’intéresse à la conception robuste de systèmes complexes dans le cadre de l’ingénierie système et de la méthode First Design. Ces travaux s’appliquent plus particulièrement aux prestations en choc frontal de véhicules de la gamme Renault. L’objectif principal de ces travaux est de proposer une méthode de conception robuste basée sur la modélisation numérique des prestations crash du véhicule. Cette stratégie vise à assurer la robustesse du produit dès la phase de conception, afin d’éviter des modifications de conception tardives et coûteuses, conséquences d’apparition de problèmes durant le cycle de validation ou la vie série du véhicule. Les spécificités du crash sont le coût important des simulations, la forte non linéarité du phénomène, ainsi que les bifurcations de comportement. Ces particularités rendent les méthodes classiques de conception robuste peu efficaces ou très couteuses. Afin de répondre à ce problème, nous développons une méthode originale, baptisée détection de défaillances, permettant d’identifier les problèmes de robustesse en crash, afin de les corriger dès le cycle de conception. Cette méthode est basée sur l’utilisation des techniques d’optimisation par les plans d’expériences. La méthode développée vise aussi à intégrer l’expertise des concepteurs crash afin de localiser rapidement les défaillances, ce qui permet de limiter le nombre de simulations nécessaires. La contrepartie d’une méthode de conception robuste reposant sur la simulation numérique est la nécessité d’avoir un bon niveau de confiance dans les résultats du modèle. On propose donc dans ce mémoire des améliorations des modèles éléments finis des véhicules Renault, afin d’améliorer la qualité de la simulation. Ces travaux vont dans le sens d’un remplacement des prototypes physiques par des prototypes numériques dans l’industrie, enjeu majeur permettant la réduction des coûts et des délais de développement. Cet enjeu est particulièrement important dans un secteur automobile très concurrentiel, où la survie d’un constructeur dépend de ses coûts et de sa réactivité face au marché. / This PhD thesis deals with robust design of complex products, within the framework of system engineering methods, such as First Design. This work focuses on frontal crashworthiness of Renault vehicles. The main goal of this PhD is to develop a robust design method based on crashworthiness numerical simulation. This method aims at ensuring the robustness of a vehicle crashworthiness right from the design stage of the product, in order to avoid costly design modifications, necessary when problems are found during the validation cycle or the life cycle of the product. Characteristics of crashworthiness phenomena are a high cost of numerical simulation, highly non-linear and bifurcative behaviour. Due to this behaviour, classic robust design methods would be unefficient or very expensive to use. In order to face this problem, we develop an original robust design method, based on optimization using design of experiments method. The goal of this method is to identify crash failures as soon as possible in the design stage, in order to correct them. This method also aims at integrating knowledge from the crash engineers, in order to find crash failures quickly, using as few simulations as possible. A challenge we meet when using numerical simulation of the crashworthiness is the need to trust the results of the model. This thesis also deals with improvements in the crash models at Renault. This work is well suited for a very competitive industry such as the automotive, where car manufacturers need to replace physical prototypes with numerical ones, in order to reduce design costs and be more reactive.
100

Estimation robuste pour les systèmes incertains / Robust estimation for uncertain systems

Bayon, Benoît 06 December 2012 (has links)
Un système est dit robuste s'il est possible de garantir son bon comportement dynamique malgré les dispersions de ses caractéristiques lors de sa fabrication, les variations de l'environnement ou encore son vieillissement. Au-delà du fait que la dispersion des caractéristiques est inéluctable, une plus grande dispersion permet notamment de diminuer fortement les coûts de production. La prise en compte explicite de la robustesse par les ingénieurs est donc un enjeu crucial lors de la conception d'un système. Des propriétés robustes peuvent être garanties lors de la synthèse d'un correcteur en boucle fermée. Il est en revanche beaucoup plus difficile de garantir ces propriétés en boucle ouverte, ce qui concerne par exemple des cas comme la synthèse d'estimateur.Prendre en compte la robustesse lors de la synthèse est une problématique importante de la communauté du contrôle robuste. Un certain nombre d'outils ont été développés pour analyser la robustesse d'un système vis-à-vis d'un ensemble d'incertitudes(μ analyse par exemple). Bien que le problème soit intrinsèquement complexe au sens algorithmique, des relaxations ont permis de formuler des conditions suffisantes pour tester la stabilité d'un système vis-à-vis d'un ensemble d'incertitudes. L'émergence de l'Optimisation sous contrainte Inégalité Matricielle Linéaire (LMI) a permis de tester ces conditions suffisantes au moyen d'un algorithme efficace, c'est-à-dire convergeant vers une solution en un temps raisonnable grâce au développement des méthodes des points intérieurs.En se basant sur ces résultats d'analyse, le problème de synthèse de correcteurs en boucle fermée ne peut pas être formulé sous la forme d'un problème d'optimisation pour lequel un algorithme efficace existe. En revanche, pour certains cas comme la synthèse de filtres robustes, le problème de synthèse peut être formulé sous la forme d'un problème d'optimisation sous contrainte LMI pour lequel un algorithme efficace existe. Ceci laisse entrevoir un certain potentiel de l'approche robuste pour la synthèse d'estimateurs.Exploitant ce fait, cette thèse propose une approche complète du problème de synthèse d'estimateurs robustes par l'intermédiaire des outils d'analyse de la commande robuste en conservant le caractère efficace de la synthèse lié aux outils classiques. Cette approche passe par une ré-interprétation de l'estimation nominale (sans incertitude) par l'optimisation sous contrainte LMI, puis par une extension systématique des outils de synthèse et d'analyse développés pour l'estimation nominale à l'estimation robuste.Cette thèse présente des outils de synthèse d'estimateurs, mais également des outils d'analyse qui permettront de tester les performances robustes atteintes par les estimateurs.Les résultats présentés dans ce document sont exprimés sous la forme de théorèmes présentant des contraintes LMI. Ces théorèmes peuvent se mettre de façon systématique sous la forme d'un problème d'optimisation pour lequel un algorithme efficace existe.Pour finir, les problèmes de synthèse d'estimateurs robustes appartiennent à une classe plus générale de problèmes de synthèse robuste : les problèmes de synthèse robuste en boucle ouverte. Ces problèmes de synthèse ont un potentiel très intéressant. Des résultats de base sont formulés pour la synthèse en boucle ouverte, permettant de proposer des méthodes de synthèse robustes dans des cas pour lesquels la mise en place d'une boucle de rétroaction est impossible. Une extension aux systèmes LPV avec une application à la commande de position sans capteur de position est également proposée. / A system is said to be robust if it is possible to guarantee his dynamic behaviour despite dispersion of his features due to production, environmental changes or aging. beyond the fact that a dispersion is ineluctable, a greater one allows to reduce production costs. Thus, considering robustness is a crucial stake during the conception of a system.Robustness can be achieved using feedback, but is more difficult in Open-Loop, which concerns estimator synthesis for instance.Robustness is a major concern of the Robust Control Community. Many tools have been developed to analyse robustness of a system towards a set of uncertainties (μ analysis for instance). And even if the problem is known to be difficult (speaking of complexity), sufficient conditions allow to formulate results to test the robust stability of a system. Thanks to the development of interior point methods, the emergence of optimization under Linear Matrix Inequalities Constraints allows to test these results using an efficient algorithm.Based on these analysis results, the robust controller synthesis problem cannot be recast as a convex optimization problem involving LMI. But for some cases such as filter synthesis, the synthesis problem can recast as a convex optimization problem. This fact let sense that robust control tools have some potential for estimators synthesis.Exploiting this fact, this thesis ofiers a complete approach of robust estimator synthesis, using robust control tools, while keeping what made the nominal approaches successful : eficient computation tools. this approach goes through reinterpretation of nominal estimation using LMI optimization, then propose a systematic extension of these tools to robust estimation.This thesis presents not only synthesis tools, but also analysis tools, allowing to test the robust performance reached by estimators All the results are proposed as convex optimization problems involving LMI.As a conclusion, robust estimator synthesis problems belong to a wider class of problems : robust open-loop synthesis problems, which have a great potential in many applications. Basic results are formulated for open-loop synthesis, providing results for cases where feedback cannot be used. An extension to LPV systems with an application to sensorless control is given.

Page generated in 0.04 seconds