• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 24
  • 15
  • 2
  • Tagged with
  • 42
  • 20
  • 11
  • 10
  • 9
  • 7
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Studies on Stochastic Optimisation and applications to the Real-World / Contributions à l'Optimisation Stochastique et Applications au Monde-Réel

Berthier, Vincent 29 September 2017 (has links)
Un grand nombre d'études ont été faites dans le domaine de l'Optimisation Stochastique en général et les Algorithmes Génétiques en particulier. L'essentiel des nouveaux développements ou des améliorations faites sont alors testés sur des jeux de tests très connus tels que BBOB, CEC, etc. conçus de telle manière que soient présents les principaux défis que les optimiseurs doivent relever : non séparabilité, multimodalité, des vallées où le gradient est quasi-nul, et ainsi de suite. La plupart des études ainsi faites se déroulent via une application directe sur le jeu de test, optimisant un nombre donné de variables pour atteindre un critère précis. La première contribution de ce travail consiste à étudier l'impact de la remise en cause de ce fonctionnement par deux moyens : le premier repose sur l'introduction d'un grand nombre de variables qui n'ont pas d'impact sur la valeur de la fonction optimisée ; le second quant à lui relève de l'étude des conséquences du mauvais conditionnement d'une fonction en grande dimension sur les performances des algorithmes d'optimisation stochastique. Une deuxième contribution se situe dans l'étude de l'impact de la modification des mutations de l'algorithme CMA-ES,où, au lieu d'utiliser des mutations purement aléatoires, nous allons utiliser des mutations quasi-aléatoires. Ce travail introduit également la ``Sieves Method'', bien connue des statisticiens. Avec cette méthode, nous commençons par optimiser un faible nombre de variables, nombre qui est ensuite graduellement incrémenté au fil de l'optimisation.Bien que les jeux de tests existants sont bien sûr très utiles, ils ne peuvent constituer que la première étape : dans la plupart des cas, les jeux de tests sont constitués d'un ensemble de fonctions purement mathématiques, des plus simples comme la sphère, aux plus complexes. Le but de la conception d'un nouvel optimiseur, ou l'amélioration d'un optimiseur existant, doit pourtant in fine être de répondre à des problèmes du monde réel. Ce peut-être par exemple la conception d'un moteur plus efficace, d'identifier les bons paramètres d'un modèle physique ou encore d'organiser des données en groupes.Les optimiseurs stochastiques sont bien évidemment utilisés sur de tels problèmes, mais dans la plupart des cas, un optimiseur est choisi arbitrairement puis appliqué au problème considéré. Nous savons comment les optimiseurs se comparent les uns par rapport aux autres sur des fonctions artificielles, mais peu de travaux portent sur leur efficacité sur des problèmes réels. L'un des principaux aspects de des travaux présentés ici consiste à étudier le comportement des optimiseurs les plus utilisés dans la littérature sur des problèmes inspirés du monde réel, voire des problèmes qui en viennent directement. Sur ces problèmes, les effets des mutations quasi-aléatoires de CMA-ES et de la``Sieves Method'' sont en outre étudiés. / A lot of research is being done on Stochastic Optimisation in general and Genetic Algorithms in particular. Most of the new developments are then tested on well know testbeds like BBOB, CEC, etc. conceived to exhibit as many pitfalls as possible such as non-separability, multi-modality, valleys with an almost null gradient and so on. Most studies done on such testbeds are pretty straightforward, optimising a given number of variables for there cognized criterion on the testbed. The first contribution made here is to study the impact of some changes in those assumptions, namely the effect of supernumerary variables that don't change anything to a function evaluation on the one hand, and the effect of a change of the studied criterion on the other hand. A second contribution is in the modification of the mutation design for the algorithm CMA-ES, where we will use Quasi-Random mutations instead of purely random ones. This will almost always result in a very clear improvement ofthe observed results. This research also introduces the Sieves Method well known in statistics, to stochastic optimisers: by first optimising a small subset of the variables and gradually increasing the number of variables during the optimization process, we observe on some problems a very clear improvement. While artificial testbeds are of course really useful, they can only be the first step: in almost every case, the testbeds are a collection of purely mathematical functions, from the simplest one like the sphere, to some really complex functions. The goal of the design of new optimisers or the improvement of an existing one is however, in fine, to answer some real world question. It can be the design of a more efficient engine, finding the correct parameters of a physical model or even to organize data in clusters. Stochastic optimisers are used on those problems, in research or industry, but in most instances, an optimiser ischosen almost arbitrarily. We know how optimisers compare on artificial functions, but almost nothing is known abouttheir performances on real world problems. One of the main aspect of the research exposed here will be to compare someof the most used optimisers in the literature on problems inspired or directly coming from the real-world. On those problems, we will additionally test the efficiency of quasi-random mutations in CMA-ES and the Sieves-Method.
22

Nouvelles heuristiques de voisinage et mémétiques pour le problème Maximum de Parcimonie

Goëffon, Adrien 21 November 2006 (has links) (PDF)
La reconstruction phylogénétique vise à reconstituer l'histoire évolutive d'un ensemble d'espèces sous forme d'un arbre. Parmi les méthodes de reconstruction, le problème Maximum de Parcimonie (MP) consiste à trouver un arbre binaire dont les feuilles sont associées à des séquences de caractères données, et qui minimise le score de parcimonie. Les méthodes de résolution existantes de ce problème NP-complet s'attachent généralement à appliquer des méthodes heuristiques traditionnelles, comme des algorithmes gloutons et de recherche locale. L'une des diffcultés du problème repose sur la manipulation d'arbres et la définition de voisinages d'arbres.<br />Dans cette thèse, nous nous intéressons en premier lieu à l'amélioration des techniques de résolution du problème MP basées sur un algorithme de descente. Après avoir montré de manière empirique les limites des voisinages existants, nous introduisons un voisinage progressif qui évolue au cours de la recherche afin de limiter l'évaluation de voisins infructueux lors d'une descente. L'algorithme obtenu est ensuite hybridé à un algorithme génétique utilisant un croisement d'arbres spécifique fondé sur les mesures de distance entre chaque couple d'espèces dans l'arbre. Cet algorithme mémétique exhibe des résultats très compétitifs, tant sur des jeux de test tirés de la littérature que sur des jeux générés aléatoirement.
23

La morphologie temporo-aspectuelle chez des apprenants avancés d’anglais langue étrangère : une étude des facteurs sémantiques, discursifs et inter-linguistiques / Tense-Aspect Morphology in the Advanced English L2 Variety : exploring Semantic, Discourse and Cross-linguistic Factors

Vraciu, Eleonora Alexandra 18 May 2012 (has links)
Cette thèse s’inscrit dans une série d’études récemment entamées qui cherchent à caractériser les lectes d’apprenants avancés de l’anglais. Nous présentons une analyse de quelques facteurs sémantiques, discursifs et inter-linguistiques qui sous-tendent l’emploi des formes verbales en anglais langue étrangère par des apprenants avancés francophones et catalanophones en milieu guidé. À partir d’un corpus de narrations orales élicitées à partir d’un livre en images, nous examinons la distribution de la morphologie temporo-aspectuelle par rapport à l’aspect sémantique des prédicats (l’hypothèse de l’aspect) et le type d’information temporelle que ces prédicats encodent dans la narration (l’hypothèse du discours). L’emploi de la morphologie verbale est considéré également du point de vue du style rhétorique de l’apprenant, c’est-à-dire des choix systématiques faits dans une tâche communicative spécifique à partir d’un répertoire appris de formes cibles, mais aussi à travers le filtre inconscient du mode de sélection et d’organisation de l’information en langue maternelle. Même si l’anglais, le français et le catalan grammaticalisent des distinctions aspectuelles, ceci ne permet pas aux apprenants étudiés de faire un emploi de la morphologie verbale tout à fait semblable à celui des locuteurs natifs. Des coalitions prototypiques entre la sémantique des prédicats et celle de la forme verbale, qui caractérisent l’emploi de la morphologie verbale aux stades moins avancés, persistent dans l’emploi des prédicats duratifs (a)téliques et débouchent sur un emploi généralisé du progressif en anglais, souvent dans des contextes où la présence de ce marqueur génère une tension avec le type d’information temporelle encodée. Les moyens d’encoder le déroulement dans la langue maternelle des apprenants semble brouiller leurs hypothèses relatives à l’emploi du progressif en discours dans la langue cible. Seul un sous-ensemble d’apprenants très avancés utilise la morphologie verbale d’une façon véritablement libérée du sémantisme de la construction verbale, de façon similaire aux locuteurs natifs. Pour ces apprenants, le progressif acquiert une fonction discursive et sa présence n’est plus systématique dans les contextes où l’information sur le caractère non-borné d’une situation peut être récupérée à partir d’autres éléments, sémantiques ou syntaxiques. Il existe en effet des légères différences entre les productions des apprenants et des locuteurs natifs en ce qui concerne la palette de fonctions discursives que les formes verbales présentent dans la narration. L’analyse du marquage aspectuel d’une relation temporelle spécifique, celle de simultanéité, nous a permis d’identifier quelques traits qui distinguent des stades successifs dans la variété d’apprenants avancés de l’anglais, ainsi que la présence d’une perspective temporelle en anglais langue cible manifestement construite à partir des choix linguistiques transférés de la langue maternelle des apprenants, même très avancés. Notre étude ouvre des pistes de recherche sur l’étanchéité des oppositions grammaticales dans le domaine de la morphologie verbale, sur les coalitions atypiques qui peuvent surgir en discours et la façon dont ces usages périphériques peuvent s’apprendre (et s’enseigner) dans un milieu guidé. Il en résulte aussi que la production orale chez des apprenants avancés se construit à travers le filtre d’une façon de penser le monde qui reste, de façon irréductible, celui de la langue maternelle. / Our dissertation belongs to a recently initiated line of studies seeking to characterise the advanced English L2 variety. We present an integrated analysis of some semantic, discourse and cross-linguistic factors underlying the use of verb forms by advanced French and Catalan learners of English as a foreign language. Using a corpus of oral picture book narratives, we explore the distribution of tense-aspect morphology in relation to the aspectual class of predicates (the Aspect Hypothesis) and the temporal information they encode in narrative discourse (the Discourse Hypothesis). The use of tense-aspect forms is also considered from the perspective of the so called L2 rhetorical style, the systematic linguistic choices learners make in a given communicative task drawing on their learnt repertoire of L2 devices but also on information selection and organisation patterns unconsciously transferred from their L1. While English, Catalan and French grammaticalise aspectual distinctions, this does not ensure a nativelike use of aspectual marking in English L2. Prototypical predicate/form coalitions in learner production were found to remain strong in the use of tense-aspect morphology with durative (a)telic predicates and to lead to an across-the-board reliance on aspectual marking, often in tension with the plot-advancing role of the predicate. The degree of grammaticalisation of the progressive aspect in learners’ L1 seems to interfere with the hypotheses of use concerning the progressive form in English L2. Only a subset of the learners, the most advanced ones, employ tense-aspect forms in a way which is genuinely liberated from the semantic congruence with the predicate, similar to what was observed in English L1. In this case, the progressive has a discourse-specific function and becomes optional when viewpoint information can be retrieved from other elements in the context. Form-function mappings in the domain of tense-aspect morphology remain, nevertheless, more limited or do not match the ones observed in English L1. The analysis of the expression of simultaneity allows us to identify certain proficiency-related traits in the advanced English L2 variety regarding the distribution of the progressive and the non-progressive forms and the use of other linguistic devices, in coalition with tense-aspect morphology. The cross-linguistic comparison with Catalan and French L1 reveals the existence of a subtle L1 temporal perspective in the expression of simultaneity in English L2, even with the most proficient learners. These findings invite to a reflection on the margins of grammaticalised contrasts, where atypical coalitions arise, and how learners can grasp such peripheral uses in an instructional setting. They also indicate that L2 oral production at the advanced stages remains bound to a way of thinking the world which is the legacy of our L1.
24

Modélisation et distribution adaptatives de grandes scènes naturelles / Adaptive Modeling and Distribution of Large Natural Scenes

Mondet, Sébastien 08 June 2009 (has links)
Cette thèse traite de la modélisation et la diffusion de grandes scènes 3D naturelles. Nous visons à fournir des techniques pour permettre à des utilisateurs de naviguer à distance dans une scène 3D naturelle, tout en assurant la cohérence botanique et l'interactivité. Tout d'abord, nous fournissons une technique de compression multi-résolution, fondée sur la normalisation, l'instanciation, la décorrélation, et sur le codage entropique des informations géometriques pour des modèles de plantes. Ensuite, nous étudions la transmission efficace de ces objets 3D. L'algorithme de paquétisation proposé fonctionne pour la plupart des représentations multi-résolution d'objet 3D. Nous validons les techniques de paquétisation par des expériences sur un WAN (Wide Area Network), avec et sans contrôle de congestion (Datagram Congestion Control Protocol). Enfin, nous abordons les questions du streaming au niveau de la scène. Nous optimisons le traitement des requêtes du côté serveur en fournissant une structure de données adaptée et nous préparons le terrain pour nos travaux futurs sur l'évolutivité et le déploiement de systèmes distribués de streaming 3D. / This thesis deals with the modeling and the interactive streaming of large natural 3D scenes. We aim at providing techniques to allow the remote walkthrough of users in a natural 3D scene ensuring botanical coherency and interactivity.First, we provide a compact and progressive representation for botanically realistic plant models. The topological structure and the geometry of the plants are represented by generalized cylinders. We provide a multi-resolution compression scheme, based on standardization and instantiation, on difference-based decorrelation, and on entropy coding. Then, we study efficient transmission of these 3D objects. The proposed packetization scheme works for any multi-resolution 3D representation. We validate our packetization schemes with extensive experiments over a WAN (Wide Area Network), with and without congestion control (Datagram Congestion Control Protocol). Finally, we address issues on streaming at the scene-level. We optimize the viewpoint culling requests on server-side by providing an adapted datastructure and we prepare the ground for our further work on scalability and deployment of distributed 3D streaming systems.
25

Modélisation et distribution adaptatives de grandes scènes naturelles

Mondet, Sebastien 08 June 2009 (has links) (PDF)
Cette thèse traite de la modélisation et la diffusion de grandes scènes 3D naturelles. Nous visons à fournir des techniques pour permettre à des utilisateurs de naviguer à distance dans une scène 3D naturelle, tout en assurant la cohérence botanique et l'interactivité.<br>Tout d'abord, nous fournissons une technique de compression multi-résolution, fondée sur la normalisation, l'instanciation, la décorrélation, et sur le codage entropique des informations géometriques pour des modèles de plantes. Ensuite, nous étudions la transmission efficace de ces objets 3D. L'algorithme de paquétisation proposé fonctionne pour la plupart des représentations multi-résolution d'objet 3D.<br>Nous validons les techniques de paquétisation par des expériences sur un WAN (Wide Area Network), avec et sans contrôle de congestion (Datagram Congestion Control Protocol). <br>Enfin, nous abordons les questions du streaming au niveau de la scène. Nous optimisons le traitement des requêtes du côté serveur en fournissant une structure de données adaptée et nous préparons le terrain pour nos travaux futurs sur l'évolutivité et le déploiement de systèmes distribués de streaming 3D.
26

Synthèse de bancs de filtres adaptés, application à la compression des images.

Bekkouche, Hocine 18 June 2007 (has links) (PDF)
Les travaux développés dans cette thèse portent sur les décompositions multirésolution dans un cadre de lifting scheme, appliquées à la compression d'images. Pour commencer, une structure de décomposition consistant en un “lifting scheme généralisé” est proposée. Ce schéma permet d'exploiter toute l'information disponible au décodage dans l'étape de prédiction. Cela est rendu possible par l'ajout d'un filtre de prédiction supplémentaire par rapport à la structure classique de lifting scheme. Le schéma proposé est ensuite associé à deux méthodes d'adaptation. La première, appelée GAE, suppose une stationnarité globale de l'image, tandis que la seconde, LAE ne suppose qu'une stationnarité locale de l'image. Dans ce dernier cas, les filtres prédicteurs sont adaptatifs. Trois applications de ces méthodes en compression d'images sont ensuite proposées. Dans un premier temps, une comparaison des performances en compression sans perte sur des images de textures, synthétiques, gaussiennes, à stationnarités locale et globale (vérifiant les hypothèses plus haut), est réalisée. Sur ces signaux, les mesures d'entropie d'ordre 1 ont montré que les méthodes proposées offrent en moyenne un gain en codage de 0,5 bpp (GAE) et 0,8 bpp (LAE) par rapport à la décomposition en ondelette (9,7), de 0,8 bpp (GAE) et 1,11 bpp (LAE) par rapport à la (5,3) et de 0,41 bpp (GAE) et 0,65 bpp (LAE) par rapport à la méthode de Gerek et Çetin. La deuxième application concerne le codage sans perte d'images réelles de natures variées. Les gains par rapport à l'état de l'art se sont révélés plus faibles que ceux obtenus pour les images synthétiques. Enfin, la dernière application traite les cas du codage progressif et du codage avec perte. Pour la compression avec pertes, nous avons modifié la méthode LAE pour palier aux problèmes de divergence dus à l'impossibilité au niveau du décodeur de reconstruire les filtres prédicteurs à partir d'échantillons quantifiés. Elle se révèle plus efficace que lorsque l'on utilise les filtres usuels de longueur fixe (9,7) et (5,3).
27

Equilibres sur un marché financier avec asymétrie d'information et discontinuité des prix

Hillairet, Caroline 20 November 2004 (has links) (PDF)
L'objectif de cette thèse est d'étudier la réalisation d'un équilibre dans un marché où les prix des actifs financiers sont discontinus et sur lequel les agents sont différemment informés. Dans une première partie, nous résolvons le problème d'optimisation d'un initié qui possède une information forte initiale, i.e. il connaît dès le début une fonctionnelle des trajectoires du processus des prix. Nous établissons, sous une hypothèse d'indépendance de tribus, une condition nécessaire et suffisante d'existence d'un équilibre, défini par le fait que le marché des consommations s'équilibre. Nous montrons qu'à l'équilibre le marché révèle toutes les informations pertinentes. Dans une deuxième partie, nous étudions deux autres modélisations de l'information privée. La première est l'information forte progressive : l'information privée est perturbée par un bruit indépendant qui décroît au cours du temps. La deuxième s'appelle information faible : l'agent sait qu'une information concernant une variable aléatoire va être révélée, il ne peut pas l'observer mais il anticipe sa loi. D'un point de vue mathématique, l'information privée de l'initié n'est plus exprimée par une augmentation de filtration (à la différence d'une information forte, initiale ou progressive) mais par une mesure de probabilité différente assignée à cet agent. Enfin, nous avons étudié la formation d'un équilibre avec plusieurs agents initiés ayant des informations différentes. Nous avons plus particulièrement examiné sous quelles conditions la somme de leur portefeuille est nulle. Nous avons montré que plus un agent est informé sur le marché, plus il doit rester discret et investir peu sur ce marché, afin qu'un équilibre puisse exister. Dans la dernière partie, nous avons simulé les stratégies d'initiés pour différentes informations privées et nous les avons comparées à la stratégie optimale d'un non-initié. Nous avons aussi simulé la formation d'un équilibre et le montant maximal que peut investir un initié dans le marché sans empêcher un équilibre d'avoir lieu.
28

Déstabilisation gravitaire d'un matériau granulaire immergé

Bonnet, Felix 30 October 2012 (has links) (PDF)
La stabilité gravitaire des ouvrages hydrauliques (digues fluviales, barrage en remblai, ...) est un problème complexifié par la présence d'infiltration d'eau au sein même de l'ouvrage et de ses fondations. Le territoire national compte près de 10000 km de digues, d'où un enjeu important en terme de risque d'inondation. Les déstabilisations gravitaires observées sur les ouvrages hydrauliques se distinguent par leur brièveté et par leur faible emprise spatiale. L'objectif de ce travail de thèse est d'étudier spécifiquement ces instabilités brèves et de faible déplacement cumulé le long de la pente dans le cas de matériaux granulaires saturés. Dans un premier temps, une campagne expérimentale a été effectuée sur la base d'un protocole de chargement progressif dans lequel un échantillon de sol est lentement incliné jusqu'à obtenir une déstabilisation massive. Il en ressort une phénoménologie complexe composée d'un nombre de précurseurs d'avalanche dépendant de la fraction volumique de l'échantillon. Une forte influence de la fraction volumique du sol sur le seuil de stabilité est également mise en avant. Une deuxième campagne expérimentale basée sur un protocole d'effondrement contrôlé, à inclinaison imposée, a été menée dans le but d'amplifier la cinématique de déstabilisation observée en chargement progressif. Mis à part les échantillons les plus denses qui produisent de simples avalanches de surface, on observe dans les autres cas un ou plusieurs événements successifs, d'allure circulaire, mobilisant des profondeurs très importantes contrairement aux avalanches de surface.. Outre l'inclinaison, on voit bien que, là encore, la fraction volumique est un paramètre clé dans le contrôle de la cinématique de déstabilisation. Des essais préliminaires laissent cependant entendre que, au-delà de la fraction volumique, c'est la microstructure qui semble être le vrai paramètre de contrôle à travers notamment la forme des grains et leur enchevêtrement.
29

Augmenter la vitesse d'administration de la cocaïne facilite le développement d'une motivation exacerbée pour la drogue ne pouvant pas être expliquée uniquement par la quantité de drogue consommée ou l'étendue de l'entraînement opérant

Bouayad-Gervais, Karim 06 1900 (has links)
No description available.
30

Contribution au développement d’outils analytiques et numériques pour quantifier et qualifier la robustesse des structures / Development of analytical and numerical tools to quantify and qualify the robustness of structure

Seck, El Hadji Boubacar 12 July 2018 (has links)
Les notions de robustesse structurale sont intégrées dans les codes de conception européens suite à l'effondrement partiel et progressif de la tour Ronan Point de Canning Town à Londres (Angleterre, 16.05.1968). Le cadre réglementaire des Eurocodes définit la robustesse comme l'aptitude d'une structure à résister à des événements accidentels dits identifiés (incendies, explosions, chocs) ou non identifiés (conséquences d'une erreur humaine, attentats) sans présenter de dégâts disproportionnés par rapport à la cause d'origine. Cette définition incite les ingénieurs à inclure dans les procédures de conception les notions de dommage initial (défaillance locale) et de dommage disproportionné (défaillance globale). L'objectif de ces travaux de thèse est de développer un outil de simulation de la robustesse de structures lorsque des incertitudes de sollicitations (évènement accidentel) et / ou une faute de dimensionnement (conception ou de réalisation) interfèrent avec les dimensionnements réglementaires. La robustesse est évaluée à travers un indice compris entre 0 (structure peu robuste) et 1 (structure très robuste) et calculé à partir des probabilités de défaillance initiale et globale. Cette thèse propose une méthodologie reposant sur la recherche d’arbres complets d'évènements illustrant l'ensemble des cheminements potentiels d'une défaillance initiale localisée jusqu'à la ruine globale. L'approche développée s'applique aux structures hyperstatiques, dans lesquelles la rupture d'un ou plusieurs éléments n'entraine pas systématiquement la ruine de l'ensemble de la structure. En effet, les éléments non endommagés restants peuvent être en mesure de supporter les chargements externes par une redistribution des efforts internes.La procédure est illustrée dans les cas de structures unidimensionnelles hyperstatiques de poutres bi-encastrées et d'un portique référencé dans les normes et classiquement étudié dans la littérature. Le mode local de défaillance de nos simulations est la formation d'une rotule (fragile ou plastique) lorsque le moment sollicitant appliqué atteint la valeur du moment résistant d'une section droite. Deux types de lois probabilistes, Gaussiennes et Log-normales, sont testées par l'approche développée et par des simulations Monte-Carlo. Les variables aléatoires choisies peuvent être indépendantes ou corrélées. Nous présentons les résultats sous forme d’arbres d'évènements comportant l'ensemble des branches exclusives, sans intersection entre branches issues d’un même nœud. Cette spécificité permet de calculer des indices caractérisant la robustesse de la structure selon chaque scénario.L'analyse de l’arbre des évènements et des indices de robustesse permet de mettre en évidence les fragilités potentielles pouvant engendrer une défaillance généralisée d'une structure vis-à-vis d’accidents ou d’actes de malveillance. La méthode développée fournit un outil de simulation et de diagnostic efficace, tant en phase de conception qu'en phase de réhabilitation, permettant d'envisager le renforcement de bâtis existants ou futurs et d'assurer la sécurité des personnes et des ouvrages environnants. / Localized initial failures in constructions can sometimes be followed by disproportionate damage (collapse) spreading to the whole or the major part of a building. Since the partial and progressive collapse of the Ronnan Point tower (London, $1968$) caused by a gas explosion, the concept of robustness has been introduced in standards. Structural robustness is defined as the ability of a structure to withstand unforeseen events causing local damage like fire, explosion or impact, without suffering disproportionate collapse. This definition encourages engineers to include the concepts of initial damage (local failure) and disproportionate damage (global failure) in design procedures. The main objective of this PhD work is to develop a simulation tool in order to highlight the potential weakness in a structure when uncertain sollicitations (accidental events) and/or dimensional fault (design or realization) interfere with the standard predictions. The robustness is evaluated by an index varying from 0 (non-robust structure) to 1 (very robust structure) and is calculated from the initial and global failure probabilities. The proposed methodology is based on an event tree analysis summurizing all the distinct potential scenarios, from the initial damage to the collapse of the structure. The developed approach is applied to statically indeterminate unidimensional structures like beams and frame. The redundancy's consequence is that the break of one or several cross sections will not necessarily lead to the collapse of the whole system: the redistribution of the internal efforts allows the remaining undamaged parts of the structure to support the external (applied) loading. The methodology is illustrated by some examples of clamped-clamped beam and frame, loaded with punctual forces. The cross sections are supposed to have an elastic behaviour until the formation of plastic hinges (local failure). Two types of probabilistic laws, Gaussian and Log-normal, are tested by the developed approach and by Monte-Carlo simulations. The chosen random variables can be either independent or correlated. The resulting complete event tree contains all the exclusive paths from an localised damage to the global failure, without intersection between branches stemming from the same node. This specific property allows to evaluate the robustness indexes of the structure with the ratio between the local and global probabilities, according to each scenario. The analysis of the event tree and of the robustness indexes allows to highlight the potential brittleness which could cause a generalized collapse of the structure with respect to accidents or malicious acts. The developed methodology provides an effective tool of simulation and diagnostic, both in the design phase and in the rehabilitation one, useful to the reinforcement of existing or future buildings and to ensure the safety of people and surrounding structures.

Page generated in 0.0979 seconds