• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 50
  • 32
  • 2
  • Tagged with
  • 85
  • 85
  • 38
  • 23
  • 14
  • 12
  • 12
  • 11
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Fonction d'autocorrélation partielle des processus à temps discret non stationnaires et applications

Lambert-Lacroix, Sophie 08 July 1998 (has links) (PDF)
Cette thèse présente la fonction d'autocorrélation partielle d'un processus non stationnaire ainsi que des applications dans le domaine spectral et dans le cadre des processus périodiquement corrélés. Après avoir introduit cette fonction, nous montrons qu'elle caractérise la structure au second ordre des processus non stationnaires. Son intérêt est d'être facilement identifiable par rapport à la fonction d'autocovariance qui doit être de type positif. De plus elle conduit de façon naturelle à la définition d'un nouveau spectre dépendant du temps. Ce dernier décrit, à chaque instant, une situation stationnaire dans laquelle le présent est corrélé avec le passé de la même façon que le processus non stationnaire au même instant. L'étude des propriétés de ce spectre permet de le comparer à deux autres de même nature. On se restreint ensuite à la classe particulière des processus périodiquement corrélés. La fonction d'autocorrélation partielle fournit une nouvelle paramétrisation qui permet, en particulier, d'étendre de façon naturelle la méthode du maximum d'entropie à cette situation. Enfin nous considérons l'estimation autorégressive dans le cadre de ces processus en proposant une estimation adéquate de ces paramètres. La comparaison avec les procédures existantes est effectuée en regroupant certaines d'entre elles dans une même méthodologie mais aussi par simulation. Nous étudions également le lien entre ces approches et celles du cas vectoriel stationnaire.
42

Processus ponctuels spatiaux pour l'analyse du positionnement optimal et de la concentration

Bonneu, Florent 19 June 2009 (has links) (PDF)
Les processus ponctuels spatiaux forment une branche de la statistique spatiale utilisée dans des domaines d'application variés (foresterie, géo-marketing, sismologie, épidémiologie...) et développée par de récents travaux théoriques. Nous nous intéressons principalement dans cette thèse à l'apport de la théorie des processus ponctuels spatiaux pour des problèmes de positionnement optimal, ainsi que pour la définition de nouveaux indices de concentration basés sur les distances en économétrie. Le problème de positionnement optimal s'écrit souvent comme un problème d'optimisation prenant en compte des données geo-référencées auxquelles peuvent être associées des caractéristiques. Pour prendre en compte l'aléa, nous considérons ces données issues d'un processus ponctuel spatial pour résoudre un problème de positionnement stochastique plus réaliste qu'un modèle déterministe. A travers l'étude du positionnement optimal d'une nouvelle caserne de pompiers dans la région toulousaine, nous développons une méthode de résolution stochastique permettant de juger de la variabilité de la solution optimale et de traiter des bases de données volumineuses. L'approche implémentée est validée par des premiers résultats théoriques sur le comportement asymptotique des solutions optimales empiriques. La convergence presque sure des solutions optimales empiriques de l'étude de cas précédente est obtenue dans un cadre i.i.d. en utilisant la théorie de Vapnik-Cervonenkis. Nous obtenons aussi la convergence presque sure des solutions optimales empiriques, dans un cadre plus général, pour un problème de positionnement dérivé du problème de transport de Monge-Kantorovich. Nous nous intéressons ensuite à des indices de concentration basés sur des distances en économétrie. Ces indices de concentration peuvent s'écrire comme des estimateurs de caractéristiques du second ordre de processus ponctuels marqués. Nous définissons ensuite un estimateur non-paramétrique d'une nouvelle caractéristique d'un processus ponctuel spatial marqué définissant ainsi un nouvel indice de concentration améliorant ceux déjà existants. Dans un cadre asymptotique avec fenêtre d'observation bornée, notre estimateur est asymptotiquement sans biais.
43

Stabilité des massifs rocheux : une approche mécanique

Duriez, Jérôme 20 November 2009 (has links) (PDF)
Résumé La prédiction efficace des éboulements rocheux constitue un des moyens pour se prémunirvis-à-vis du risque naturel représenté par les chutes de blocs. Les joints rocheux jouant un rôle décisif dans le déclenchement de ces éboulements, il faut décrire du mieux possible le comportement mécanique de ceux-ci, et en particulier leur rupture. Une nouvelle loi de comportement de joint rocheux, incrémentalement non linéaire, est ainsi proposée, parallèlement à l'utilisation du critère du “travail du second ordre” pour détecter les conditions impliquant un éboulement. La définition de la loi se base sur un modèle numérique de joint rocheux, utilisant la méthode aux Éléments Discrets via le code Yade. Une fois le comportement des joints rocheux investigué grâce à ce modèle numérique (en lien avec des résultats expérimentaux), et la loi définie puis validée, cette-dernière est étudiée vis-à-vis de ce critère du travail du second ordre. L'existence de “directions instables” de sollicitation, susceptibles d'entraîner la rupture du joint rocheux avant le critère de Mohr-Coulomb, est ainsi mise en évidence. Ces directions instables dépendent tout particulièrement des couplages entre les directions normale et tangentielle du joint rocheux. Une falaise existante est enfin analysée : les “Gorges de Valabres”, situées dans les Alpes-Maritimes. L'analyse est effectuée en utilisant la nouvelle loi de comportement, et le critère du travail du second ordre, dans le cadre d'un modèle numérique discret de la falaise. On observe alors que des sollicitations du chargement simulé correspondent pour certains joints à des directions instables.
44

Méthodes de Monte Carlo du second ordre et d'inférence bayésienne pour l'évaluation des risques microbiologiques et des bénéfices nutritionnels dans la transformation des légumes

Rigaux, Clémence, Rigaux, Clémence 14 February 2013 (has links) (PDF)
L'objectif du travail est de mettre en place des méthodes d'évaluation des risques microbiologiques et des bénéfices nutritionnels lors de la transformation des légumes, en vue d'une analyse risque-bénéfice. Le risque (industriel) considéré est l'altération des conserves de haricots verts due à la bactérie thermophile Geobacillus stearothermophilus, et le bénéfice nutritionnel est la teneur en vitamine C des haricots verts appertisés. Des paramètres de référence ont d'abord été acquis, par une méta-analyse par approche bayésienne pour la partie risque. Les paramètres de résistance thermique D à 121.1°C et pH 7, zT et zpH de G.stearothermophilus ont ainsi été estimés respectivement à 3.3 min, 9.1°C et 4.3 unités pH en moyenne en milieu aqueux. Les modèles risque et bénéfice ont ensuite été analysés par la méthode de simulation de Monte Carlo à deux dimensions, permettant une propagation séparée de la variabilité et de l'incertitude. Les pertes en vitamine C prédites par le modèle entre la matière première et les légumes appertisés sont de 86% en moyenne, et le taux de non-stabilité à 55°C prédit est de 0.5% en moyenne, globalement en accord avec la réalité. Une analyse risque-bénéfice a ensuite visé à optimiser le bénéfice tout en gardant le risque à un niveau acceptable, par exploration de scénarios d'interventions possibles basés sur les résultats d'analyses de sensibilité. Enfin, un modèle d'évaluation des risques dus à la bactérie pathogène Bacillus cereus dans une purée de courgettes a été confronté à des données de contamination dans des produits incubés, par le biais d'une inférence bayésienne.
45

Quelques contributions à la Théorie univariée des Valeurs Extrêmes et Estimation des mesures de risque actuariel pour des pertes à queues lourdes

Deme, El Hadji 05 June 2013 (has links) (PDF)
Cette thèse est divisée en cinq chapitres auxquels s'ajoutent une introduction et une conclusion. Dans le premier chapitre, nous rappelons quelques notions de base sur la théorie des valeurs extrêmes. Dans le deuxième chapitre, nous considérons un processus statistique dépendant d'un paramétre continu tau et dont chaque marge peut être considérée comme un estimateur de Hill généralis.. Ce processus statistique permet de discriminer entièrement les domaines d'attraction des valeurs extrêmes. La normalité asymptotique de ce processus statistiquea été seulement donnée pour tau > 1/2. Nous complétons cette étude pour 0 < tau< 1/2, en donnant une approximation des domaines de Gumbel et de Fréchet. Des études de simulations effectuées avec le logiciel " R ", permettent de montrer la performance de ces estimateurs. Comme illustration, nous proposons une application de notre méthodologie aux données hydrauliques. Dans le troisième chapitre, nous étendons l'étude du processus statistique précédent dans un cadre fonctionnel. Nous proposons donc un processus stochastique dépendant d'une fonctionnelle positive pour obtenir une grande classe d'estimateurs de l'indice des valeurs extrêmes dont chaque estimateur est une marge d'un seul processus stochastique. L'étude théorique de ces processus stochastiques que nous avions menée, est basée sur la théorie moderne de convergence vague fonctionnelle. Cette dernière permet de gérer des estimateurs plus complexes sous forme de processus stochastiques. Nous donnons les distributions asymptotiques fonctionnelles de ces processus et nous montrons que pour certaines classes de fonctions, nous avons un comportement asymptotique non Gaussien et qui sera entièrement caractérisé. Dans le quatrième chapitre, on s'intéresse à l'estimation du paramètre du second ordre. Notons que ce paramètre joue un rôle très important dans le choix adaptatif du nombre optimal de valeurs extrêmes utilisé lors de l'estimation de l'indice des valeurs extrêmes. L'estimation de ce paramètre est également utilisée pour la réduction du biais des estimateurs de l'indice de queue et a reçu une grande attention dans la littérature des valeurs extrêmes .Nous proposons une simple et générale approche pour estimer le paramètre du second ordre, permettant de regrouper un grand nombre d'estimateurs. Il est montré que les estimateurs cités précedemment peuvent être vus comme des cas particuliers de notre approche. Nous tirons également parti de notre formalisme pour proposer de nouveaux estimateurs asymptotiquement Gaussiens du paramètre du second ordre. Finalement, certains estimateurs sont comparés tant du point de vue asymptotique que performance sur des échantillons de tailles finies. Comme illustration, nous proposons une application sur des données d'assurance. Dans le dernier chapitre, on s'intéresse aux mesures de risque actuariel pour des phénomènes capables d'engendrer des pertes financières très importantes (ou phenomènes extrêmes c'est-à-dire à des risques dont on ne sait pas si le système d'assurance sera capable de les supporte). De nombreuses mesures de risque ou principes de calcul de la prime ont été proposés dans la littérature actuarielle. Nous nous concentrons sur la prime de risque-ajustée. Jones et Zitikis (2003) ont donné une estimation de cette dernière basée sur la distribution empirique et ont établi sa normalité asymptotique sous certaines conditions appropriées, et qui ne sont pas souvent remplies dans le cas des distributions à queues lourdes. Ainsi, nous regardons ce cadre là et nous considérons une famille d'estimateurs de la prime de risque-ajustée basée sur l'approche de la théorie des valeurs extrêmes. Nous établissons leur normalité asymptotique et nous proposons également une approche de réduction de biais pour ces estimateurs. Des études de simulation permettent d'apprécier la qualité de nos estimateurs. Comme illustration, nous proposons une application sur des données d'assurance.
46

Contributions to second order reflected backward stochastic differentials equations / Contribution aux équations différentielles stochastiques rétrogrades réfléchies du second ordre

Noubiagain Chomchie, Fanny Larissa 20 September 2017 (has links)
Cette thèse traite des équations différentielles stochastiques rétrogrades réfléchies du second ordre dans une filtration générale . Nous avons traité tout d'abord la réflexion à une barrière inférieure puis nous avons étendu le résultat dans le cas d'une barrière supérieure. Notre contribution consiste à démontrer l'existence et l'unicité de la solution de ces équations dans le cadre d'une filtration générale sous des hypothèses faibles. Nous remplaçons la régularité uniforme par la régularité de type Borel. Le principe de programmation dynamique pour le problème de contrôle stochastique robuste est donc démontré sous les hypothèses faibles c'est à dire sans régularité sur le générateur, la condition terminal et la barrière. Dans le cadre des Équations Différentielles Stochastiques Rétrogrades (EDSRs ) standard, les problèmes de réflexions à barrières inférieures et supérieures sont symétriques. Par contre dans le cadre des EDSRs de second ordre, cette symétrie n'est plus valable à cause des la non linéarité de l'espérance sous laquelle est définie notre problème de contrôle stochastique robuste non dominé. Ensuite nous un schéma d'approximation numérique d'une classe d'EDSR de second ordre réfléchies. En particulier nous montrons la convergence de schéma et nous testons numériquement les résultats obtenus. / This thesis deals with the second-order reflected backward stochastic differential equations (2RBSDEs) in general filtration. In the first part , we consider the reflection with a lower obstacle and then extended the result in the case of an upper obstacle . Our main contribution consists in demonstrating the existence and the uniqueness of the solution of these equations defined in the general filtration under weak assumptions. We replace the uniform regularity by the Borel regularity(through analytic measurability). The dynamic programming principle for the robust stochastic control problem is thus demonstrated under weak assumptions, that is to say without regularity on the generator, the terminal condition and the obstacle. In the standard Backward Stochastic Differential Equations (BSDEs) framework, there is a symmetry between lower and upper obstacles reflection problem. On the contrary, in the context of second order BSDEs, this symmetry is no longer satisfy because of the nonlinearity of the expectation under which our robust stochastic non-dominated stochastic control problem is defined. In the second part , we get a numerical approximation scheme of a class of second-order reflected BSDEs. In particular we show the convergence of our scheme and we test numerically the results.
47

Modélisation de la transition solide-fluide dans les géomatériaux : application aux glissements de terrain / Modelling of the solid-fluid transition for geomaterials : application to landslides

Prime, Noémie 15 November 2012 (has links)
Les géomatériaux sont présents dans la nature sous des formes très diverses : sols et rochesin situ solides, argiles ductiles, boues quasiment liquides, etc... La géomécanique s’intéresseà la compréhension du comportement solide des géomatériaux. Cependant, il arrive que sousl’effet de conditions extérieures particulières, des terrains initialement solides se transformenten fluides : c’est ce qui se produit par exemple lors de coulées de boues ou de débris. Dans untel contexte, il existe peu d’outils numériques capables de modéliser les différentes phases ducomportement. Il semble de plus, qu’il n’existe pas à ce jour de modèle constitutif satisfaisantpour décrire une telle transition.Nos travaux s’intéressent de manière générale à la transition solide-fluide dans le comportementdes géomatériaux, et à l’élaboration d’un modèle constitutif décrivant la phase solide, laphase fluide, ainsi que la transition entre les deux. Nous avons choisi dans ce cadre de menerles calculs en nous basant sur la méthode MEFPIL (Méthode aux Éléments Finis avec desPoints d’Intégration Lagrangiens) qui a déjà montré de fortes potentialités pour décrire descomportements très variés (dont des comportements à variables d’histoire), dans un mêmemodèle.Après avoir implanté et validé la première loi élasto-plastique dans Ellipsis (code basé sur laMEFPIL), nous avons pu introduire dans ce code le modèle de transition. Celui-ci se base surl’évolution du comportement solide élasto-plastique vers un comportement fluide, visqueux àseuil, et ce, au moment de la rupture matérielle détectée par le critère du travail du secondordre.Après quelques applications du modèle de transition solide-fluide sur des cas simples et homogènes(en considérant la loi élasto-plastique Plasol et loi visqueuse de Bingham), nous avonsappliqué ce modèle à la modélisation des coulées de boue de Sarno et Quindici (Italie, 1998).Les premiers modèles montrent la possibilité de décrire les trois phases de ce mouvement deterrain (l’initiation, la propagation et l’immobilisation), et nous avons pu étudier l’effet dedifférents paramètres sur l’arrêt contre un ouvrage de protection. / Geomaterials are present in nature in many forms : solid soil or rock, soft clay, almost liquidmud, etc... Geomechanics deals with the understanding the solid behavior of geomaterials.However, solid ground can happen, under specific external conditions, to turn into fluid : asfor example during mudflows or debris flows. In such a context, there are few numerical toolsable of modeling the different phases of the behavior. Furthermore, it seems that there is,nowadays, no satisfactory constitutive model to describe such a transition.Our work concerns, in a general way, solid-fluid transition in geomaterials behavior and thedevelopment of a constitutive model describing both the solid phase, fluid phase, and thetransition between the two. In this framework, we chose to carry out calculations with theFEMLIP numerical method (Finite Element Method with Lagrangians Integration Points)which has shown a strong potential to describe a wide variety of behaviors (including historydependant behavior), in a unique model.Having implemented and validated the first elasto-plastic law in Ellipsis (FEMLIP basedcode), we have introduced in this code the solid-fluid transition model. This last is based onthe evolution, at the failure state detected by the second order work criterion, of the solidelasto-plastic behavior towards a viscous fluid behavior, exhibiting a yield stress.After validation of the solid-fluid transition model in homogeneous cases (considering Plasolelasto-plastic law and Bingham viscous one), we applied this model to the modeling of Sarnoand Quindici mudflows (Italy, 1998). The first models shows the possibility to describe thethree phases of the flow (initiation, propagation and immobilization), and we could study theeffect of various parameters on the stop against a protection work.
48

Aspects micromécaniques de la rupture dans les milieux granulaires / Micromechanic Aspects of failure in geomaterials

Hadda, Nejib 18 April 2013 (has links)
Les régions de montagne sont parfois le siège de phénomènes dévastateurs brutaux, tels que les éboulements, les glissements de terrains, ou encore les avalanches. Fondamentalement, ces phénomènes sont issus de la rupture d’un volume de matériau qui va alors s’écouler sous l’effet de son poids propre. Prévoir ces phénomènes impose donc de mieux décrire la phase initiale de rupture. Ce travail de thèse s’inscrit dans cette volonté, en considérant le cas très général de la rupture dans un milieu granulaire. Pour cela, des simulations numériques utilisant une méthode aux éléments discrets ont été mises en œuvre, afin de vérifier la pertinence des critères usuels de rupture et d’instabilité. Dans un second temps, des analyses plus fines basées sur le travail du second ordre calculé à partir des variables microscopiques ont été menées afin de cerner comment évolue la microstructure de l’assemblage granulaire juste avant et pendant la rupture. Finalement, l’influence du chemin de chargement et des paramètres de contrôle sur la nature (effective ou non effective) et le mode (diffus ou localisé) de rupture a été examinée à travers une série d’essais biaxiaux sur deux échantillons numériques bidimensionnels (dense et moyennement dense). / Landslides and avalanches are the most common brutal and devastating natural hazards in mountain regions. Basically, these phenomena are derived from the failure of a material volume which will then flow under the effect of its own weight. Therefore, predicting these phenomena requires a better description of the initial phase of failure. This work comes within this willingness, considering the very general case of failure in granular media. For this purpose, numerical simulations using a discrete element method were carried out in order to investigate the relevance of the common failure and instability criteria. In a second step, more detailed analyses based on the second order work computed from the microscopic variables were conducted in order to describe the evolution of the microstructure of a granular assembly just before and during the failure. Finally, the influence of the loading path and the control parameters on the nature (effective or non-effective) and the mode (diffuse or localized) of failure was discussed through a series of biaxial tests performed on two-dimensional numerical samples depicting respectively a dense and a medium dense dry sand.
49

Sur les épreuves et les types dans la logique du second ordre / On proofs and types in second order logic

Pistone, Paolo 27 March 2015 (has links)
Dans cette thèse on s'intéresse aux formes de "circularité" qui apparaissent dans la théorie de la preuve de la logique du second ordre et de son contrepartie constructive, le Système F.Ces "circularités", ou "cercles vicieux" (Poincaré 1900), sont analysées sur la base d'une distinction entre deux points de vue distincts et irréductible (à cause des théorèmes d'incomplétude): le premier ("le pourquoi", Girard 1989) concerne la cohérence et l'Hauptsatz et demande des méthodes infinitaires (i.e. non élémentaires) de preuve. Le deuxième ("le comment", Girard 1989) concerne le contenu computationnel et combinatoire des preuves, donné par la correspondance entre preuves et programmes, et ne demande que de méthodes élémentaires de preuve.Dans la première partie de la thèse, dévouée au "pourquoi", les arguments philosophiques traditionnels sur les "cercles vicieux" sont confrontés avec la perspective qui émerge de la démonstration de l' Hauptsatz pour la logique de second ordre (obtenue par Girard avec la technique des candidats de réductibilité).Dans la deuxième partie de la thèse, dévouée au "comment", deux approches combinatoires aux cercles vicieux sont proposés: la première se basant sur la théorie du polymorphisme paramétrique, la deuxième sur l'analyse géométrique du typage qui vient de la théorie de l'unification. / In this dissertation several issues concerning the proof-theory of second order logic and its constructive counterpart (System F, Girard 1971) are addressed. The leitmotiv of the investigations here presented is the apparent "circularity'' or "impredicativity'' of second order proofs. This circularity is reflected in System F by the possibility to type functions applied to themselves, in contrast with Russell's idea that typing should rather forbid such ``vicious circles'' (Poincare 1906). A fundamental methodological distinction between two irreducible (because of incompleteness) approaches in proof theory constitutes the background of this work: on the one hand, "why-proof theory'' ("le pourquoi'', Girard 1989) addresses coherence and the Hauptsatz and requires non-elementary ("infinitary'') techniques; on the other hand, "how-proof theory'' ("le comment'', Girard 1989) addresses the combinatorial and computational content of proofs, given by the correspondence between proofs and programs, and is developed on the basis of elementary ("finitary'') techniques. }In the first part of the thesis, dedicated to "why-proof theory'', the traditional philosophical arguments on "vicious circles'' are confronted with the perspective arising from the proof of the Hauptsatz for second order logic (first obtained in Girard 1971 with the technique of reducibility candidates).In the second part of the thesis, dedicated to "how-proof theory'', two combinatorial approaches to "vicious circles'' are presented, with some technical results: the first one based on the theory of parametric polymorphism, the second one on the geometrical analysis of typing coming from unification theory.
50

Développement d’un modèle de stabilité des barres à section tubulaire comprimées fléchies sensibles aux effets du second ordre / Development of a model of stability for steel hollow tubular section beam-columns sensitive to second order effects

Mercier, Charlotte 24 October 2019 (has links)
Cette thèse s’inscrit dans une démarche d’amélioration des connaissances des instabilités des éléments comprimés et fléchis sensibles aux effets du second ordre. Il s’agit de traiter la prise en compte des imperfections initiales dans l’analyse de la structure et d’adapter les critères actuels de vérification pour les structures tubulaires de type échafaudage. Les formulations existantes, proposées dans la littérature et les codes de calculs, sont souvent issues d’hypothèses, et conduisent à des incohérences entre les critères de vérification en section, et les critères de vérification en instabilité. L’approche développée traite l’interaction entre la résistance en section et les phénomènes d’instabilités, et inclut l’influence des imperfections initiales. Ces effets seront, dans la mesure du possible, découplés. À ce titre, une méthode a été conçue pour permettre la définition des imperfections initiales d’une structure, de manière à être la plus précise possible. Cette méthode, basée sur la définition d’une imperfection unique, d’allure identique à la déformée critique du mode de flambement prépondérant, est une méthode précise, entièrement définie permettant de tenir compte des caractéristiques géométriques, des caractéristiques mécaniques intrinsèques, des conditions aux limites et de la forme du chargement, dans la définition de l’imperfection initiale unique d’une structure. Une campagne d’essai a été réalisée en collaboration avec le SFECE, visant à analyser le comportement expérimental au flambement de sections tubulaires formées à froid. Des essais de flambement sur des échelles d’échafaudage, provenant de divers fournisseurs européens, ont été effectués. Une étude statistique des résultats expérimentaux a permis de mettre en évidence que le facteur d’imperfection actuellement défini pour les sections tubulaires formées à froid est bien trop pénalisant à l’égard des sections usitées dans le domaine des échafaudages. Afin de répondre à la problématique, de nouveaux critères de vérification en instabilité ont également été établis en utilisant une approche similaire à celle d’Ayrton-Perry. Ces nouveaux critères permettent de s’affranchir de la modélisation des imperfections initiales tout en offrant une estimation sûre et précise du facteur de sollicitation d’une structure. Des études comparatives ont été menées de manière à s’assurer de la sécurité des formulations proposées par rapport aux critères de vérification en section de la norme actuelle. / This thesis is part of an effort to improve knowledge of the instabilities of beam-columns sensitive to second-order effects. The works deal with the means to take into account the initial imperfections in the structural analysis and to adapt the current verification criteria for tubular section structures, such as scaffold structures. The existing formulations, proposed in the literature and calculation codes, are often based on hypotheses, and thus lead to inconsistencies between, on the one hand, the verification criteria in section, and on the other hand, the verification criteria in instability. The developed approach takes into account the interaction between section resistance and instability phenomena, and includes the influence of initial imperfections (initial defect of aplomb, lack of straightness, residual stresses). As far as possible, these effects will be decoupled. As such, a method has been developed to allow the definition of initial imperfections of a structure, to be as accurate as possible. This method, based on the definition of a single imperfection, identical in appearance to the shape of the predominant critical buckling mode, is a precise, fully defined method to take into account the geometric characteristics, intrinsic mechanical characteristics, limits and the form of loading, in the definition of the initial imperfections of a structure. A test campaign was carried out in collaboration with the French Syndicate of Scaffolding, Formwork and Shoring (SFECE), aiming to analyze the experimental behavior of buckling of cold-formed tubular sections. Nine buckling tests on scaffold ladders, from various European suppliers, have been carried out. A statistical study of the experimental results has made it possible to highlight that the imperfection factor currently defined for the cold-formed tubular sections is far too penalizing for the sections used in the field of scaffolds. In order to respond to the problem, new instability criteria have also been established using a similar approach to that of Ayrton-Perry. These new criteria make it possible to free ourselves from the modeling of initial imperfections while offering a safe and accurate estimate of the stress factor of a structure. A comparative study was conducted in order to ensure the safety of the proposed formulations as regards the section verification criteria of the NF EN 1993-1-1 current standard.

Page generated in 0.0514 seconds