• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 4
  • 2
  • Tagged with
  • 14
  • 14
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Sur une théorie des méconnaissances en dynamique des structures

PUEL, Guillaume 09 December 2004 (has links) (PDF)
Dans le cadre de la quantification de la qualité d'un<br />modèle par rapport à une référence expérimentale, nous présentons<br />une nouvelle théorie basée sur le concept de méconnaissance qui<br />permet de manipuler un modèle qui est forcément une représentation<br />imparfaite de la réalité, et d'obtenir des résultats prédictifs<br />qui tiennent compte du manque de connaissance que l'on a vis-à-vis<br />de la structure réelle étudiée. Cette théorie, qui mêle théorie<br />des intervalles et théorie des probabilités, repose sur la<br />globalisation des diverses sources d'erreur à l'échelle des<br />sous-structures en utilisant une variable interne scalaire<br />contenue dans un intervalle dont les bornes suivent des lois de<br />probabilités.<br /><br />À partir de ces bornes, si l'on considère une quantité<br />d'intérêt définie sur l'ensemble de la structure (une fréquence<br />propre par exemple), il est possible à partir de la donnée du<br />modèle de méconnaissances de base de calculer un intervalle<br />d'appartenance de cette quantité d'intérêt, dont les bornes sont<br />probabilistes. On définit alors des intervalles de méconnaissances<br />dites effectives, qui ont une certaine probabilité de contenir la<br />quantité d'intérêt associée au modèle.<br /><br />La quantification de la qualité d'un modèle par rapport<br />à une référence expérimentale se traduit alors par la<br />détermination des méconnaissances de base qui sont les plus<br />représentatives des dispersions constatées. L'idée majeure de<br />cette détermination est de considérer que plus on a d'informations<br />expérimentales, plus on est susceptible de réduire les<br />méconnaissances de base. La démarche dite de réduction des<br />méconnaissances est appliquée avec succès sur des cas d'études<br />académiques ainsi que sur un exemple réel de structure<br />industrielle : le support de satellites SYLDA5 présent dans le<br />lanceur Ariane 5.
2

Une approche basée sur les modèles pour le test de robustesse

Pachon, Cyril Alexandre 04 October 2005 (has links) (PDF)
Les manières de créer et de développer des systèmes informatiques ne cessent d'évoluer. La complexité croissante des logiciels informatiques (répartition du code, utilisation de composants externes, limitation des ressources, etc.) nécessite des méthodes de conception et de validation rigoureuses. Dans ce contexte la phase de test s'avère particulièrement importante car elle contribue à garantir un bon fonctionnement de l'implantation du logiciel, dans son environnement réel d'exécution. Cette thèse définit une méthode automatique de génération de tests destinés à évaluer la robustesse d'une implantation, c'est-à-dire sa capacité à respecter certaines propriétés comportementales malgré un environnement d'exécution dégradé (susceptible de fournir des entrées incorrectes, ou d'inclure des composants externes incapables de rendre le service attendu). L'approche que nous proposons est inspirée des techniques de génération de test utilisées en test de conformité des protocoles de communications dans lesquelles les suites de test sont générées à partir d'un modèle comportementale d'une spécification du logiciel. L'originalité de ce travail consiste à étendre cette technique pour prendre en compte un modèle de fautes (exprimant le comportement dégradé de l'environnement sous forme de mutations syntaxiques de la spécification) et un observateur (exprimant l'ensemble des comportements incorrects du point de vue de la robustesse). Les séquences de test produites sont alors correctes dans le sens où elles ne rejettent que des implantations non robustes vis-à-vis de cet observateur. Un prototype a été réalisé dans le cadre de la boîte à outils IF et évaluée sur des exemples d'implantation Java.
3

Validation de modèles qualitatifs de réseaux de régulation génique: une méthode basée sur des techniques de vérification formelle

Batt, Grégory 24 February 2006 (has links) (PDF)
Les réseaux de régulation génique contrôlent le développement et le fonctionnement des organismes vivants. Etant donné que la plupart des réseaux de régulation génique d'intérêt biologique sont grands et que leur dynamique est complexe, la compréhension de leur fonctionnement est un problème biologique majeur. De nombreuses méthodes ont été développées pour la modélisation et la simulation de ces systèmes. Etonnamment, le problème de la validation de modèle n'a reçu jusqu'à récemment que peu d'attention. Pourtant, cette étape est d'autant plus importante que dans le contexte de la modélisation de réseaux de régulation génique, les systèmes modélisés sont complexes et encore imparfaitement connus.<br /><br />Dans cette thèse, nous proposons une approche permettant de tester la validité de modèles de réseaux de régulation génique en comparant les prédictions obtenues avec les données expérimentales. Plus spécifiquement, nous considérons dans ce travail une classe de modèles qualitatifs définis en termes d'équations différentielles linéaires par morceaux (LPM). Ces modèles permettent de capturer les aspects essentiels des régulations géniques, tout en ayant une forme mathématique simple qui facilite leur analyse symbolique. Egalement, nous souhaitons utiliser les informations qualitatives sur la dynamique du système données par les changements du sens de variation des concentrations des protéines du réseau. Ces informations peuvent être obtenues expérimentalement à partir de profils d'expression temporels.<br /><br />La méthode proposée doit satisfaire deux contraintes. Premièrement, elle doit permettre d'obtenir des prédictions bien adaptées à la comparaison avec le type de données considéré. Deuxièmement, étant donné la taille et la complexité des réseaux d'intérêt biologique, la méthode doit également permettre de vérifier efficacement la cohérence entre prédictions et observations.<br /><br />Pour répondre à ces deux contraintes, nous étendons dans deux directions une approche précédemment développée par de Jong et collègues pour l'analyse symbolique des modèles LPM qualitatifs. Premièrement, nous proposons d'utiliser une représentation plus fine de l'état du système, permettant d'obtenir, par abstraction discrète, des prédictions mieux adaptées à la comparaison avec les données expérimentales. Deuxièmement, nous proposons de combiner cette méthode avec des techniques de model checking. Nous montrons que l'utilisation combinée d'abstraction discrète et de model checking permet de vérifier efficacement les propriétés dynamiques, exprimées en logique temporelle, des modèles continus.<br /><br />Cette méthode a été implémentée dans une nouvelle version de l'outil Genetic Network Analyzer (GNA 6.0). GNA 6.0 a été utilisé pour la validation de deux modèles grands et complexes de l'initiation de la sporulation chez <I>B. subtilis</I> et de la réponse au stress nutritionnel chez <I>E. coli</I>. Nous avons ainsi pu vérifier que les prédictions obtenues étaient en accord avec la plupart des données expérimentales disponibles dans la littérature. Plusieurs incohérences ont également été identifiées, suggérant des révisions des modèles ou la réalisation d'expériences complémentaires. En dehors d'une contribution à une meilleure compréhension du fonctionnement de ces systèmes, ces deux études de cas illustrent plus généralement que, par la méthode proposée, il est possible de tester si des prédictions obtenues pour des modèles complexes sont cohérentes avec un large éventail de propriétés observables expérimentalement.
4

Contribution au développement des outils de simulation numérique de la combustion supersonique

Davidenko, Dmitry 19 December 2005 (has links) (PDF)
Cette thèse, composée de quatre chapitres, porte sur l'amélioration et le développement de modèles pour la simulation numérique de la combustion supersonique. Le 1er chapitre décrit les bases théoriques d'un code de calcul destiné à la simulation des écoulements compressibles réactifs turbulents. Le 2e chapitre présente les améliorations apportées au modèle de turbulence k-epsilon, notamment l'implantation des corrections de Pope et Sarkar et la validation du modèle pour des écoulements compressibles tels que la couche de mélange plane et le jet rond. Une limitation stabilisatrice a été proposée pour la correction de Pope assurant une prédiction précise de l'épanouissement du jet rond. Un post-traitement de données d'une simulation directe d'une couche de mélange turbulente non isotherme bi-espèces a permis d'évaluer le rapport des nombres de Prandtl et de Schmidt turbulents. Le 3e chapitre est consacré aux modèles cinétiques chimiques. Une nouvelle méthode de réduction automatique de mécanismes cinétiques chimiques a été élaborée puis appliquée au développement de modèles chimiques réduits pour les mélanges réactifs CH4-H2-air et H2-air vicié. Une nouvelle corrélation empirique pour le délai d'autoinflammation du mélange CH4-H2-air a été proposée. Les mécanismes réduits ont été validés dans des conditions homogènes et dans un milieu diffusif. Le 4e chapitre présente la méthodologie et les résultats d'une étude numérique sur une chambre de combustion supersonique. L'aspect méthodologique de cette étude concerne : la validation des modèles numériques, le choix des conditions aux limites, l'adaptation du maillage et la comparaison des configurations bi- et tridimensionnelle.
5

Analyse des modèles résine pour la correction des effets de proximité en lithographie optique

Top, Mame Kouna 12 January 2011 (has links) (PDF)
Les progrès réalisés dans la microélectronique répondent à la problématique de la réduction des coûts de production et celle de la recherche de nouveaux marchés. Ces progrès sont possibles notamment grâce à ceux effectués en lithographie optique par projection, le procédé lithographique principalement utilisé par les industriels. La miniaturisation des circuits intégrés n'a donc été possible qu'en poussant les limites d'impression lithographique. Cependant en réduisant les largeurs des transistors et l'espace entre eux, on augmente la sensibilité du transfert à ce que l'on appelle les effets de proximité optique au fur et à mesure des générations les plus avancées de 45 et 32 nm de dimension de grille de transistor. L'utilisation des modèles OPC est devenue incontournable en lithographie optique, pour les nœuds technologiques avancés. Les techniques de correction des effets de proximité (OPC) permettent de garantir la fidélité des motifs sur plaquette, par des corrections sur le masque. La précision des corrections apportées au masque dépend de la qualité des modèles OPC mis en œuvre. La qualité de ces modèles est donc primordiale. Cette thèse s'inscrit dans une démarche d'analyse et d'évaluation des modèles résine OPC qui simulent le comportement de la résine après exposition. La modélisation de données et l'analyse statistique ont été utilisées pour étudier ces modèles résine de plus en plus empiriques. Outre la fiabilisation des données de calibrage des modèles, l'utilisation des plateformes de création de modèles dédiées en milieu industriel et la méthodologie de création et de validation des modèles OPC ont également été étudié. Cette thèse expose le résultat de l'analyse des modèles résine OPC et propose une nouvelles méthodologie de création, d'analyse et de validation de ces modèles.
6

Contribution à l'estimation robuste de modèles dynamiques : Application à la commande de systèmes dynamiques complexes.

Corbier, Christophe 29 November 2012 (has links) (PDF)
L'identification des systèmes dynamiques complexes reste une préoccupation lorsque les erreurs de prédictions contiennent des outliers d'innovation. Ils ont pour effet de détériorer le modèle estimé, si le critère d'estimation est mal choisi et mal adapté. Cela a pour conséquences de contaminer la distribution de ces erreurs, laquelle présente des queues épaisses et s'écarte de la distribution normale. Pour résoudre ce problème, il existe une classe d'estimateurs, dits robustes, moins sensibles aux outliers, qui traitent d'une manière plus " douce " la transition entre résidus de niveaux très différents. Les M-estimateurs de Huber font partie de cette classe. Ils sont associés à un mélange des normes L2 et L1, liés à un modèle de distribution gaussienne perturbée, dit gross error model. A partir de ce cadre formel, nous proposons dans cette thèse, un ensemble d'outils d'estimation et de validation de modèles paramétriques linéaires et pseudo-linéaires boîte-noires, avec extension de l'intervalle de bruit dans les petites valeurs de la constante d'accord de la norme de Huber. Nous présentons ainsi les propriétés de convergence du critère d'estimation et de l'estimateur robuste. Nous montrons que l'extension de l'intervalle de bruit réduit la sensibilité du biais de l'estimateur et améliore la robustesse aux points de levage. Pour un type de modèle pseudo-linéaire, il est présenté un nouveau contexte dit L-FTE, avec une nouvelle méthode de détermination de L, dans le but d'établir les linéarisations du gradient et du Hessien du critère d'estimation, ainsi que de la matrice de covariance asymptotique de l'estimateur. De ces relations, une version robuste du critère de validation FPE est établie et nous proposons un nouvel outil d'aide au choix de modèle estimé. Des expérimentations sur des processus simulés et réels sont présentées et analysées.L'identification des systèmes dynamiques complexes reste une préoccupation lorsque les erreurs de prédictions contiennent des outliers d'innovation. Ils ont pour effet de détériorer le modèle estimé, si le critère d'estimation est mal choisi et mal adapté. Cela a pour conséquences de contaminer la distribution de ces erreurs, laquelle présente des queues épaisses et s'écarte de la distribution normale. Pour résoudre ce problème, il existe une classe d'estimateurs, dits robustes, moins sensibles aux outliers, qui traitent d'une manière plus " douce " la transition entre résidus de niveaux très différents. Les M-estimateurs de Huber font partie de cette classe. Ils sont associés à un mélange des normes L2 et L1, liés à un modèle de distribution gaussienne perturbée, dit gross error model. A partir de ce cadre formel, nous proposons dans cette thèse, un ensemble d'outils d'estimation et de validation de modèles paramétriques linéaires et pseudo-linéaires boîte-noires, avec extension de l'intervalle de bruit dans les petites valeurs de la constante d'accord de la norme de Huber. Nous présentons ainsi les propriétés de convergence du critère d'estimation et de l'estimateur robuste. Nous montrons que l'extension de l'intervalle de bruit réduit la sensibilité du biais de l'estimateur et améliore la robustesse aux points de levage. Pour un type de modèle pseudo-linéaire, il est présenté un nouveau contexte dit L-FTE, avec une nouvelle méthode de détermination de L, dans le but d'établir les linéarisations du gradient et du Hessien du critère d'estimation, ainsi que de la matrice de covariance asymptotique de l'estimateur. De ces relations, une version robuste du critère de validation FPE est établie et nous proposons un nouvel outil d'aide au choix de modèle estimé. Des expérimentations sur des processus simulés et réels sont présentées et analysées.
7

Analyse des modèles résines pour la correction des effets de proximité en lithographie optique

Top, Mame kouna 12 January 2011 (has links) (PDF)
Les progrès réalisés dans la microélectronique répondent à la problématique de la réduction des coûts de production et celle de la recherche de nouveaux marchés. Ces progrès sont possibles notamment grâce à ceux effectués en lithographie optique par projection, le procédé lithographique principalement utilisé par les industriels. La miniaturisation des circuits intégrés n'a donc été possible qu'en poussant les limites d'impression lithographique. Cependant en réduisant les largeurs des transistors et l'espace entre eux, on augmente la sensibilité du transfert à ce que l'on appelle les effets de proximité optique au fur et à mesure des générations les plus avancées de 45 et 32 nm de dimension de grille de transistor.L'utilisation des modèles OPC est devenue incontournable en lithographie optique, pour les nœuds technologiques avancés. Les techniques de correction des effets de proximité (OPC) permettent de garantir la fidélité des motifs sur plaquette, par des corrections sur le masque. La précision des corrections apportées au masque dépend de la qualité des modèles OPC mis en œuvre. La qualité de ces modèles est donc primordiale. Cette thèse s'inscrit dans une démarche d'analyse et d'évaluation des modèles résine OPC qui simulent le comportement de la résine après exposition. La modélisation de données et l'analyse statistique ont été utilisées pour étudier ces modèles résine de plus en plus empiriques. Outre la fiabilisation des données de calibrage des modèles, l'utilisation des plateformes de création de modèles dédiées en milieu industriel et la méthodologie de création et de validation des modèles OPC ont également été étudié. Cette thèse expose le résultat de l'analyse des modèles résine OPC et propose une nouvelles méthodologie de création, d'analyse et de validation de ces modèles.
8

Modélisation d'essais de choc sur dispositifs de retenue de véhicules : Application aux dispositifs mixtes acier-bois

GOUBEL, Clément 13 December 2012 (has links) (PDF)
En France, un tiers des personnes tuées sur la route le sont lors d'un accident sur un obstaclefixe. Dans 90% des cas, ces accidents surviennent après une perte de contrôle du véhicule.Les dispositifs de retenue de véhicule ont pour but de maintenir les véhicules en perdition surla chaussée en limitant la sévérité de l'impact.Ces dispositifs doivent subir des essais de chocs normatifs afin de pouvoir être installés sur lebord des routes européennes et d'évaluer leurs performances en termes de sévérité et dedéflexion.Les tolérances existantes sur les paramètres d'essai (véhicule, masse du véhicule, vitesse,angle et point d'impact ...) et les incertitudes sur les caractéristiques mécaniques desmatériaux constituant le dispositif ont un effet sur les performances de ce dispositifs etdoivent être prises en compte lors des calculsLes dispositifs mixtes (acier-bois) présentent une difficulté supplémentaire en raison del'hétérogénéité du matériau et de sa sensibilité aux variables d'environnement telles que latempérature et l'humidité.Afin de prendre en compte cette variabilité et d'évaluer son impact sur les performances d'undispositif, des essais dynamiques sur des échantillons de structure ont été réalisés et modélisésnumériquement.Enfin, un modèle complet d'un dispositif de retenue de véhicule a été effectué et corrélé surun essai de choc réel à l'aide d'une méthode prenant en compte la variation de paramètresphysiques liés à l'apparition des modes de ruine de la structure. Une fois corrélé, le modèle aété utilisé afin d'évaluer l'incidence de la modification des caractéristiques mécaniques dubois liée aux variations des conditions environnementales.
9

Contribution à l’estimation robuste de modèles dynamiques : Application à la commande de systèmes dynamiques complexes. / Contribution in the robust estimate of dynamic models. Application in the order of complex dynamic systems.

Corbier, Christophe 29 November 2012 (has links)
L'identification des systèmes dynamiques complexes reste une préoccupation lorsque les erreurs de prédictions contiennent des outliers d'innovation. Ils ont pour effet de détériorer le modèle estimé, si le critère d'estimation est mal choisi et mal adapté. Cela a pour conséquences de contaminer la distribution de ces erreurs, laquelle présente des queues épaisses et s'écarte de la distribution normale. Pour résoudre ce problème, il existe une classe d'estimateurs, dits robustes, moins sensibles aux outliers, qui traitent d'une manière plus « douce » la transition entre résidus de niveaux très différents. Les M-estimateurs de Huber font partie de cette classe. Ils sont associés à un mélange des normes L2 et L1, liés à un modèle de distribution gaussienne perturbée, dit gross error model. A partir de ce cadre formel, nous proposons dans cette thèse, un ensemble d'outils d'estimation et de validation de modèles paramétriques linéaires et pseudo-linéaires boîte-noires, avec extension de l'intervalle de bruit dans les petites valeurs de la constante d'accord de la norme de Huber. Nous présentons ainsi les propriétés de convergence du critère d'estimation et de l'estimateur robuste. Nous montrons que l'extension de l'intervalle de bruit réduit la sensibilité du biais de l'estimateur et améliore la robustesse aux points de levage. Pour un type de modèle pseudo-linéaire, il est présenté un nouveau contexte dit L-FTE, avec une nouvelle méthode de détermination de L, dans le but d'établir les linéarisations du gradient et du Hessien du critère d'estimation, ainsi que de la matrice de covariance asymptotique de l'estimateur. De ces relations, une version robuste du critère de validation FPE est établie et nous proposons un nouvel outil d'aide au choix de modèle estimé. Des expérimentations sur des processus simulés et réels sont présentées et analysées.L'identification des systèmes dynamiques complexes reste une préoccupation lorsque les erreurs de prédictions contiennent des outliers d'innovation. Ils ont pour effet de détériorer le modèle estimé, si le critère d'estimation est mal choisi et mal adapté. Cela a pour conséquences de contaminer la distribution de ces erreurs, laquelle présente des queues épaisses et s'écarte de la distribution normale. Pour résoudre ce problème, il existe une classe d'estimateurs, dits robustes, moins sensibles aux outliers, qui traitent d'une manière plus « douce » la transition entre résidus de niveaux très différents. Les M-estimateurs de Huber font partie de cette classe. Ils sont associés à un mélange des normes L2 et L1, liés à un modèle de distribution gaussienne perturbée, dit gross error model. A partir de ce cadre formel, nous proposons dans cette thèse, un ensemble d'outils d'estimation et de validation de modèles paramétriques linéaires et pseudo-linéaires boîte-noires, avec extension de l'intervalle de bruit dans les petites valeurs de la constante d'accord de la norme de Huber. Nous présentons ainsi les propriétés de convergence du critère d'estimation et de l'estimateur robuste. Nous montrons que l'extension de l'intervalle de bruit réduit la sensibilité du biais de l'estimateur et améliore la robustesse aux points de levage. Pour un type de modèle pseudo-linéaire, il est présenté un nouveau contexte dit L-FTE, avec une nouvelle méthode de détermination de L, dans le but d'établir les linéarisations du gradient et du Hessien du critère d'estimation, ainsi que de la matrice de covariance asymptotique de l'estimateur. De ces relations, une version robuste du critère de validation FPE est établie et nous proposons un nouvel outil d'aide au choix de modèle estimé. Des expérimentations sur des processus simulés et réels sont présentées et analysées. / Complex dynamic systems identification remains a concern when prediction errors contain innovation outliers. They have the effect to damage the estimated model if the estimation criterion is badly chosen and badly adapted. The consequence is the contamination of the distribution of these errors; this distribution presents heavy tails and deviates of the normal distribution. To solve this problem, there is a robust estimator's class, less sensitive to the outliers, which treat the transition between residuals of very different levels in a softer way. The Huber's M-estimators belong to this class. They are associated to a mixed L2 - L1 norm, related to a disturbed Gaussian distribution model, namely gross error model. From this formal context, in this thesis we propose a set of estimation and validation tools of black-box linear and pseudo-linear models, with extension of the noise interval to low values of the tuning constant in the Huber's norm. We present the convergence properties of the robust estimation criterion and the robust estimator. We show that the extension of the noise interval reduces the sensitivity of the bias of the estimator and improves the robustness to the leverage points. Moreover, for a pseudo-linear model structure, we present a new context, named L-FTE, with a new method to determine L, in order to linearize the gradient and the Hessien of estimation criterion and the asymptotic covariance matrix of the estimator. From these expressions, a robust version of the FPE validation criterion is established and we propose a new decisional tool for the estimated model choice. Experiments on simulated and real systems are presented and analyzed.
10

Évaluation et modélisation des dispositifs de retenue pour motards / Design and Assessment of Motorcyclists Restraint Systems

Kodjo, Vidjannagni 02 September 2016 (has links)
En France, en 2015 les motocyclistes représentent 43% des blessés graves victimes d'accidents de la circulation routière. Au même moment, même si les accidents de chocs de motocyclistes contre les dispositifs de retenue routiers ne représentent en moyenne que 10% des accidents de la circulation routière, les motocyclistes présentent un risque de décès 30 à 80 fois supérieur au risque de décès des usagers de véhicules impliqués dans le même type d'accidents.Pour renforcer la sécurité des motocyclistes, les dispositifs de retenue pour automobiles (dispositifs traditionnels) sont équipés à leur partie inférieure d'écran de protection motards. Les écrans motards ont pour but d'amortir de manière progressive les chocs des motocyclistes en les empêchant dans le même temps de passer à travers la partie inférieure des dispositifs de retenue pour automobiles, de percuter un poteau et d'être sévèrement blessés. Les écrans motards doivent subir des essais de chocs normatifs et répondre à certaines exigences afin de pouvoir être installés sur le bord des routes européennes et de garantir surtout la sécurité des motards. Cependant, il n'existe que des procédures normatives pour tester ces dispositifs, la procédure LIER dans le contexte Français et la procédure normative EN 1317-8 dans le contexte Européen. Afin d'évaluer ces deux procédures normatives et de proposer de nouvelles dispositions pouvant servir de procédure normative plus avancée sur le protocole d'essais d'évaluation de performances d'écrans motards, des simulations numériques ont été réalisées. Un modèle numérique complet de dispositif de retenue routier équipé d'écran motard en acier a été développé et corrélé sur un essai de choc réel sur un dispositif de même type. Une fois corrélé,le modèle a été utilisé afin d'évaluer l'influence des conditions d'essais et des caractéristiques mécaniques matériaux de l'écran sur les performances de l'écran motard. Enfin, une nouvelle démarche d'évaluation de performances d'écran de protection motard a été mise en place / In France, in 2015,motorcyclists represent 43% of seriously injured accident victims in road traffic. At the same time, even though motorcyclists impact crashes against the road restraint systems represent on average 10% of accidents in road traffic, motorcyclists present a risk of death from30 to 80 times upper than the risk of death for users of vehicles involved in the same type of accidents. To enhance the safety of motorcyclists, Vehicle Restraints Systems (VRS) arefitted to the lower part of restraint systems for motorcyclists. Motorcyclist’s Restraint Systems (MRS) are designed to absorb shocks gradually and to preventmotorcyclists to pass through the lower part of VRS, to hit a post and be severely injured. Before being installed on the roadsides, MRS have to be crash-tested according to standards in order to evaluate their safety and ensure motorcyclists safety. However, there are only normative procedures to testMRS, the LIER procedurein the French context and the procedure EN1317-8 in the European context. To assess both normative procedures and propose new provisions which can be used as normative procedure more advanced on the protocol of MRS performances evaluation tests, numerical simulations were performed. A numerical model of MRS was developed and correlated on one real impact test on other device of same type. Once correlated, the model was used to conduct a parametric study on the test conditions and thematerialsmechanical properties of the MRS. Finally, a new demarche of MRS performances evaluation was developed

Page generated in 0.1028 seconds