• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 185
  • 69
  • 27
  • 1
  • Tagged with
  • 274
  • 101
  • 77
  • 62
  • 58
  • 46
  • 42
  • 37
  • 34
  • 30
  • 30
  • 27
  • 26
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Un modèle d'évaluation de la vulnérabilité sismique du bâti existant selon l'Eurocode : essai méthodologique et application sur un territoire / A model for the evaluation of the seismic vulnerability of collective buildings based on eurocode 8 : a case applied to Mulhouse and Basel

Lemaire, Jean 12 February 2018 (has links)
Le risque sismique est un sujet d’étude pluridisciplinaire qui fait l’objet de nombreux travaux de recherches. Pendant longtemps, il a été étudié sous l’aspect de l’aléa et ce n’est qu’au milieu du XXe siècle que nous nous sommes intéressés à la vulnérabilité des éléments exposés. Malgré la multiplicité des études sur le risque sismique, aucune d’entre elles n’adopte une démarche globale en utilisant la règlementation parasismique. Dans le cadre de cette thèse, nous soutenons l’hypothèse selon laquelle il est possible d’évaluer la vulnérabilité des lieux d’habitation à l’échelle de plusieurs bâtiments en utilisant la norme Européenne, l’Eurocode 8. Utiliser cette règlementation a l’avantage de réduire les temps d’étudede la vulnérabilité physique puisque l’on évalue la résistance sismique d’un unique bâtiment dont ce dernier représente une population de plusieurs immeubles à usage d’habitation collective. La méthodologie proposée, illustrée sur l’exemple de la conurbation Mulhouse-Bâle, se compose de deux phases. La première consiste à étudier l’aléa sismique de la zone urbaine de Mulhouse et de Bâle à travers les études bibliographiques de quelques auteurs. Cette phase consiste aussi à examiner la compatibilité de la règlementation parasismique européenne et helvétique. En dernier lieu, un diagnostic du bâti existant et de la population est réalisé pour évaluer la vulnérabilité de ces deux territoires urbains, après un découpage des deux villes en secteurs historico géographiques. Une seconde phase consiste à proposer un modèle simplifié d’évaluation déterministe et probabiliste de la vulnérabilité du bâti, Celui-ci est fondé à partir de la nouvelle règlementation Européenne et de la mécanique des structures, pour évaluer la résistance sismique des bâtiments. L’aspect probabiliste a permis d’affiner le modèle proposé afin d’intégrer certaines incertitudes. Une étude de cas simulant un séisme important de magnitude Mw égale à 6 sur l’échelle de Richter, intégrant les phénomènes d’effets de site comme le préconise l’Eurocode 8, a permis de valider l’application du modèle envisagé. Le modèle d’évaluation proposé a pour intérêt de fournir un outil permettant d’évaluer la vulnérabilité du bâti sans effectuer de calcul mécanique. Il se veut donc accessible à tous(géographes, ingénieurs, sismologues, etc.…). Plus généralement, ce modèle pour objectif de fournir un outil d’aide à la décision dans la démarche de prévention que doivent les autorités publiques à la population, puisqu’ils permettent de déterminer la plus ou moins grande vulnérabilité des zones étudiées. / The seismic risk is a subject of multidisciplinary study which is the object of numerous research works. For a long time, it was studied in terms of hazard and it is only in the middle of the 20th century that we became interested in the vulnerability of the exposed elements. In spite of the multiplicity of the studies on the seismic risk, none of them adopts a global approach by using the earthquake-resistant regulations. Within the framework of thesis, we support the hypothesis that it possible to estimate the vulnerability of dwellings on the scale of several buildings by using the European standard, Eurocode 8. Using these regulations has the advantage reducing the time to study physical vulnerability by assessing the seismic resistance of a single building, where the latter represents a population of several buildings used as collective dwellings. The proposed methodology, illustrated on the example of the Mulhouse-Basel conurbation, consists of two phases. The first one consists in studying the seismic hazard of the urban area of Mulhouse and Basel through the bibliographical studies of some authors. This phase also consists in examining the compatibility of the European and Helvetian seismic regulations. Finally, a diagnosis of the existing structures and of the population is made to assess the vulnerability of these two urban territories, after a division of both cities into historic-geographical sectors. A second phase consists in proposing a simplified model of deterministic and probabilistic assessment of the vulnerability of the built, based on the new European regulation and the mechanics of the structures, to evaluate the seismic resistance of buildings. The probability aspect allowed to refine the proposed model to integrate certain uncertainties. A case study feigning an important earthquake of magnitude Mw equal to 6 on the Richter scale, integrating the phenomena of site effects as recommended by Eurocode 8, validated the application of the envisaged model. The proposed evaluation model is intended to provide a tool for assessing the vulnerability of the built without performing mechanical calculations. Thus, it aims to be accessible to all (geographers, engineers, seismologists, etc…). More generally, this model aims to provide a decision-making tool in the approach of prevention which the public authorities owe to the population, because they allow to determine the more or less big vulnerability of the studied areas.
242

Application of perturbation theory methods to nuclear data uncertainty propagation using the collision probability method / Application de la théorie des perturbations à la propagation des incertitudes des données nucléaires par la méthode des probabilités de première collision

Sabouri, Pouya 28 October 2013 (has links)
Dans cette thèse, nous présentons une étude rigoureuse des barres d'erreurs et des sensibilités de paramètres neutroniques (tels le keff) aux données nucléaires de base utilisées pour les calculer. Notre étude commence au niveau fondamental, i.e. les fichiers de données ENDF et leurs incertitudes, fournies sous la forme de matrices de variance/covariance, et leur traitement. Lorsqu'un calcul méthodique et consistant des sensibilités est consenti, nous montrons qu'une approche déterministe utilisant des formalismes bien connus est suffisante pour propager les incertitudes des bases de données avec un niveau de précision équivalent à celui des meilleurs outils disponibles sur le marché, comme les codes Monte-Carlo de référence. En appliquant notre méthodologie à trois exercices proposés par l'OCDE, dans le cadre des Benchmarks UACSA, nous donnons des informations, que nous espérons utiles, sur les processus physiques et les hypothèses sous-jacents aux formalismes déterministes utilisés dans cette étude. / This dissertation presents a comprehensive study of sensitivity/uncertainty analysis for reactor performance parameters (e.g. the k-effective) to the base nuclear data from which they are computed. The analysis starts at the fundamental step, the Evaluated Nuclear Data File and the uncertainties inherently associated with the data they contain, available in the form of variance/covariance matrices. We show that when a methodical and consistent computation of sensitivity is performed, conventional deterministic formalisms can be sufficient to propagate nuclear data uncertainties with the level of accuracy obtained by the most advanced tools, such as state-of-the-art Monte Carlo codes. By applying our developed methodology to three exercises proposed by the OECD (UACSA Benchmarks), we provide insights of the underlying physical phenomena associated with the used formalisms.
243

La gestion dynamique des relations hauteur-débit des stations d'hydrométrie et le calcul des incertitudes associées : un indicateur de gestion, de qualité et de suivi des points de mesure / Dynamic rating curve assessment for hydrometric stations and computation of the associated uncertainties : Quality and station management indicators

Morlot, Thomas 01 October 2014 (has links)
Pour répondre à trois enjeux principaux que sont la sûreté des installations, le respect d'exigences règlementaires et l'optimisation des moyens de production, EDF-DTG a développé un réseau d'observations qui comprend les paramètres climatiques tels que la température de l'air, les précipitations et l'enneigement, mais aussi le débit des rivières. Les données collectées permettent la surveillance en « temps réel » des cours d'eau ainsi que la réalisation d'études hydrologiques quantitatives ou de dimensionnement qui nécessitent de disposer de séries patrimoniales de références. Assurer la qualité des données de débits est donc un enjeu de première importance. On ne mesure pourtant pas en continu le débit d'un cours d'eau car les dispositifs à mettre en œuvre restent onéreux et difficilement techniquement réalisable. Le plus souvent, c'est à partir de mesures en continu du niveau des rivières que l'on déduit le débit de ces dernières. Des mesures ponctuelles de débits appelées « jaugeages » permettent de caler un modèle hauteur-débit nommé « courbe de tarage ». Ce sont les équipements installés sur les rivières pour la mesure des niveaux qui sont dénommés « station d'hydrométrie ». Force est de constater que l'ensemble de ce processus constitue une manière indirecte de détermination du débit dont le niveau d'incertitude mérite d'être décrit. À chacune des valeurs de débit produites peut être associé un intervalle de confiance qui tient compte des incertitudes de chacune des étapes. La rapidité de variation de la relation hauteur-débit rend souvent difficile le suivi en temps réel du débit alors que les besoins de la surveillance temps réel des ouvrages imposent une bonne fiabilité des données en continu. Or, en ce qui concerne les stations les moins stables, la méthode historique pour produire la courbe de tarage qui repose sur une construction à partir d'un nombre suffisant de jaugeages chronologiquement contigus et bien répartis sur la plus grande gamme possible reste mal adaptée aux changements rapides ou cycliques de la relation hauteur-débit. Elle ne prend pas assez en compte les phénomènes d'érosion et de sédimentation rapides ainsi que la croissance saisonnière d'herbiers car la capacité à réaliser des jaugeages par les équipes de gestion reste en général assez limitée. Ainsi, pour améliorer la qualité et la fiabilité des données de débits, ces travaux de thèse explorent une méthode de tracé dynamique des courbes de tarage et un calcul des incertitudes associées. Une gestion dynamique de la courbe de tarage est créée de sorte que chaque jaugeage donne lieu au tracé d'une nouvelle courbe de tarage. Après le tracé, un modèle d'incertitudes est construit autour de chaque courbe de tarage. Il prend en compte les incertitudes des jaugeages, les erreurs sur la mesure de hauteur d'eau, la sensibilité de la relation hauteur-débit et l'incertitude sur le tracé lui-même. Une approche variographique est utilisée pour faire vieillir les jaugeages et les courbes de tarage afin d'obtenir un intervalle de confiance augmentant avec le temps, et se réactualisant à chaque nouveau jaugeage puisque ce dernier donne lieu au tracé d'une nouvelle courbe de tarage, plus fiable car plus récente pour l'estimation des débits à venir. Des chroniques de débit sont enfin obtenues de façon homogène et avec un intervalle de confiance prenant en compte le vieillissement des courbes générées. En prenant mieux en compte la variabilité des conditions d'écoulement et la vie des stations, la méthode créée et son modèle d'incertitudes permet de construire des outils de gestion et d'optimisation d'exploitation des points de mesure. Elle répond à des questions récurrentes en hydrométrie comme : « Combien de jaugeages faut-il réaliser en une année pour produire des données de débit avec une incertitude moyenne de X% ? » et « Quand et dans quelle gamme de débit réaliser ces jaugeages ? ». / Dealer or owner operator of electricity production structures, EDF is responsible for their operation in safe condition and for the respect of the limits imposed by the regulations. Thus, the knowledge of water resources is one of EDF main concerns since the company remains preoccupied about the proper use of its facilities. The knowledge of streamflow is one of its priorities to better respond to three key issues that are plant safety, compliance with regulatory requirements, and optimizing the means of production. To meet these needs, EDF-DTG (Division Technique Générale) operates an observation network that includes both climatic parameters such as air and temperature, then the precipitations and the snow, but also the streamflow. The data collected allows real time monitoring of rivers, as well as hydrological studies and the sizing of structures. Ensuring the quality of the stream flow data is a priority. Up to now it is not possible to measure continuously the flow of a river since direct measurements of discharge are time consuming and expensive. In common cases the flow of a river can be deduced from continuous measurements of water level. Punctual measurements of discharge called gaugings allow to develop a stage-discharge relationship named rating curve. These are permanently installed equipment on rivers for measuring levels that are called hydrometric station. It is clear that the whole process constitutes an indirect way of estimating the discharge in rivers whose associated uncertainties need to be described. Quantification of confidence intervals is however not the only problem of the hydrometer. Fast changes in the stage-discharge relationship often make the streamflow real time monitoring quite difficult while the needs of continuous high reliability data is obvious. The historical method to produce the rating curve based on a construction from a suffcient number of gaugings chronologically contiguous and well distributed over the widest possible range of discharge remains poorly adapted to fast or cyclical changes of the stage-discharge relationship. The classical method does not take suffciently into account the erosion and sedimentation processes as well as the seasonal vegetation growth. Besides, the ability to perform gaugings by management teams generally remains quite limited. To get the most accurate streamflow data and to improve their reliability, this thesis explores an original dynamic method to compute rating curves based on historical gaugings from a hydrometric station while calculating the associated uncertainties. First, a dynamic rating curve assessment is created in order to compute a rating curve for each gauging of a considered hydrometric station. After the tracing, a model of uncertainty is built around each computed rating curve. It takes into account the uncertainty of gaugings, but also the uncertainty in the measurment of the water height, the sensitivity of the stage discharge relationship and the quality of the tracing. A variographic analysis is used to age the gaugings and the rating curves and obtain a final confidence interval increasing with time, and actualizing at each new gauging since it gives rise to a new rating curve more reliable because more recent for the prediction of discharge to come. Chronological series of streamflow data are the obtained homogeneously and with a confidence interval that takes into consideration the aging of the rating curves. By taking into account the variability of the flow conditions and the life of the hydrometric station, the method can answer important questions in the field of hydrometry such as « How many gauging a year have to be made so as to produce stream flow data with an average uncertainty of X\% ? » and « When and in which range of water flow do we have to realize those gaugings ? ».
244

Modélisation et contrôle d’un robot spatial flexible pour la capture d’un débris en rotation / Modeling and Control of a Flexible Space Robot to Capture a Tumbling Debris

Dubanchet, Vincent 14 October 2016 (has links)
Les débris en orbite sont actuellement une source de préoccupation majeure pour les acteurs du spatial et pour le reste de la population, comme en témoignent les articles de presse et les œuvres cinématographiques sur le sujet. En effet, la présence de ces objets menace directement les astronautes en mission et les satellites en opération. Parmi les nombreuses options déjà envisagées pour les traiter, cette thèse se concentre sur l’approche robotique, en proposant des outils et des méthodes de modélisation et de contrôle pour un satellite chasseur équipé d’un bras manipulateur. Des modèles dynamiques et des schémas de simulation optimisés sont ainsi développés pour tout système multi-corps constitué d’une base mobile supportant un nombre quelconque d’appendices rigides ou flexibles. Par la suite, les trajectoires de capture sont générées en conservant la continuité en accélération avec le mouvement naturel du point cible, dans le but de saisir aussi délicatement que possible le débris en rotation. Le suivi de cette trajectoire par l’effecteur du robot chasseur est alors assuré par une loi de contrôle à deux niveaux, dont le réglage repose sur la synthèse H1 structurée. Une étude de robustesse est également mise en place pour assurer la stabilité et les performances du système en boucle fermée, malgré les changements de configuration du bras. Enfin, la validation des travaux de thèse est réalisée par voie numérique avec un simulateur haute-fidélité, et par voie pratique avec un banc d’essais robotique incluant des composants physiques en temps réel. / On-orbit debris are currently causing deep concern for space agencies, related companies, and also among the population. ¿is is evidenced by the numerous scientific articles and recent movies on the matter. Indeed, these objects pose a serious threat for the astronauts on mission and for operational satellites. Among the various technical concepts already designed to address these threats, this thesis focuses on space robotics. Tools and methods are thus introduced for the modeling and control of a chaser satellite equipped with a manipulator. Dynamic models and optimized simulation schemes are developed to handle any multi-body system made up of amoving base embedding various appendages, either rigid or flexible. ¿en, a trajectory planner is designed to ensure acceleration continuity with the natural motion of the debris in order to perform a soft capture. ¿is reference trajectory is tracked by the end-effector of the chaser using a two-level control law, which is tuned by the structured H1 synthesis. A robustness analysis is also presented to assess the stability and the performances of the closed-loop system with respect to the motion of the robotic arm. Finally, the outcome of the thesis is validated by a twofold approach: by numerical means with a highfidelity simulator, and by practical ones with a robotic test bench including physical components in real time.
245

Composition dynamique de services sensibles au contexte dans les systèmes intelligents ambiants / Dynamic context-aware services composition in ambient intelligent systems

Yachir, Ali 23 February 2014 (has links)
Avec l'apparition des paradigmes de l'intelligence ambiante et de la robotique ubiquitaire, on assiste à l'émergence de nouveaux systèmes intelligents ambiants visant à créer et gérer des environnements ou écosystèmes intelligents d'une façon intuitive et transparente. Ces environnements sont des espaces intelligents caractérisés notamment par l'ouverture, l'hétérogénéité, l'incertitude et la dynamicité des entités qui les constituent. Ces caractéristiques soulèvent ainsi des défis scientifiques considérables pour la conception et la mise en œuvre d'un système intelligent adéquat. Ces défis sont principalement au nombre de cinq : l'abstraction de la représentation des entités hétérogènes, la gestion des incertitudes, la réactivité aux événements, la sensibilité au contexte et l'auto-adaptation face aux changements imprévisibles qui se produisent dans l'environnement ambiant. L'approche par composition dynamique de services constitue l'une des réponses prometteuses à ces défis. Dans cette thèse, nous proposons un système intelligent capable d'effectuer une composition dynamique de services en tenant compte, d'une part, du contexte d'utilisation et des diverses fonctionnalités offertes par les services disponibles dans un environnement ambiant et d'autre part, des besoins variables exprimés par les utilisateurs. Ce système est construit suivant un modèle multicouche, adaptatif et réactif aux événements. Il repose aussi sur l'emploi d'un modèle de connaissances expressif permettant une ouverture plus large vers les différentes entités de l'environnement ambiant notamment : les dispositifs, les services, les événements, le contexte et les utilisateurs. Ce système intègre également un modèle de découverte et de classification de services afin de localiser et de préparer sémantiquement les services nécessaires à la composition de services. Cette composition est réalisée d'une façon automatique et dynamique en deux phases principales: la phase offline et la phase online. Dans la phase offline, un graphe global reliant tous les services abstraits disponibles est généré automatiquement en se basant sur des règles de décision sur les entrées et les sorties des services. Dans la phase online, des sous-graphes sont extraits automatiquement à partir du graphe global selon les tâches à réaliser qui sont déclenchées par des événements qui surviennent dans l'environnement ambiant. Les sous-graphes ainsi obtenus sont exécutés suivant un modèle de sélection et de monitoring de services pour tenir compte du contexte d'utilisation et garantir une meilleure qualité de service. Les différents modèles proposés ont été mis en œuvre et validés sur la plateforme ubiquitaire d'expérimentation du laboratoire LISSI à partir de plusieurs scénarii d'assistance et de maintien de personnes à domicile / With the appearance of the paradigms of the ambient intelligence and ubiquitaire robotics, we attend the emergence of new ambient intelligent systems to create and manage environments or intelligent ecosystems in a intuitive and transparent way. These environments are intelligent spaces characterized in particular by the opening, the heterogeneousness, the uncertainty and the dynamicité of the entities which establish(constitute) them. These characteristics so lift(raise) considerable scientific challenges for the conception(design) and the implementation of an adequate intelligent system. These challenges are mainly among five: the abstraction of the representation of the heterogeneous entities, the management of the uncertainties, the reactivity in the events, the sensibility in the context and the auto-adaptation
246

Contrôle adaptatif robuste. Application au contrôle d'attitude de satellites / Robust adaptive control. Application to satellite attitude control

Leduc, Harmonie 22 September 2017 (has links)
Cette thèse porte sur la commande adaptative directe robuste et son application au contrôle d’attitude des satellites de la filière Myriade du CNES. Après avoir présenté les différents types de commande variant dans le temps, nous rappelons les caractéristiques d’un contrôleur adaptatif direct, en particulier le fait que la seule connaissance d’un retour de sortie stabilisant le système à contrôler suffit pour concevoir un contrôleur adaptatif direct. Parallèlement, nous présentons la théorie des systèmes descripteurs. Modéliser un système sous forme descripteur est non conventionnel mais présente de nombreux avantages dans le contexte de la commande adaptative directe robuste. A l’aide des résultats existants sur la commande adaptative directe d’une part, et de la théorie des systèmes descripteurs d’autre part, nous fournissons une méthode permettant de calculer, connaissant un retour de sortie constant, les paramètres d’un contrôleur adaptatif direct robuste stabilisant. Cette méthode repose sur la résolution d’inégalités matricielles linéaires. Le contrôleur adpatatif est plus robuste que le contrôleur constant, mais on ne peut prouver que la stabilité globale que vers un voisinage du point d’équilibre. Nous présentons ensuite une méthode, également basée sur la résolution d’inégalités matricielles linéaires, permettant de concevoir un contrôleur adaptatif direct robuste de meilleur niveau de rejet des perturbations extérieures que le contrôleur constant à partir duquel il est construit. L’ensemble de ces résultats théoriques est ensuite appliqué au contrôle d’attitude des satellites de la filière Myriade du CNES. En particulier, nous concevons un contrôleur d’attitude stabilisant le satellite quelle que soit la valeur de son inertie. Ce contrôleur d’attitude est également capable d’éviter aux roues à réaction du satellite de saturer. Nous concevons ensuite un contrôleur d’attitude adaptatif, robuste, et qui rejette mieux les perturbations extérieures que le contrôleur constant à partir duquel il est construit. Ce contrôleur constant est d’ailleurs actuellement implémenté à bord des satellites de la filière Myriade du CNES. Enfin, nous validons l’ensemble des résultats de cette thèse à l’aide d’un simulateur SCAO du CNES, où nous simulons le déploiement des mâts d’un satellite, ainsi que des scénarii de sauts de guidage. / This manuscript deals with robust direct adaptive control, and its application to CNES microsatellites attitude control. After listing the different types of time-varying controllers, we recall the characteristics of direct adaptive control. In particular, we recall that the knowledge of a stabilizing static output feedback is sufficient to design a direct adaptive controller. In parallel, we introduce the descriptor system theory. Modelizing a system into descriptor form is not usual but fits well with robust direct adaptive control. Starting from existing results about adaptive control and descriptor system theory, we provide an LMI based method which allows to compute, with the knowledge of a stabilizing static output feedback, the parameters of a stabilizing direct adaptive controller. A first result proves that the adaptive controller is at least as robust as the static output feedback. The second result allows to prove improved robustness at the expense of relaxing stability of the equilibrium point to practical stability, that is convergence to a neighborhood of the equilibrium. Then, we provide a method, LMI based as well, which allows to design a robust direct adaptive controller which has a better level of rejection of the perturbations than the static output feedback from which it is designed. All these theoretical results are applied to the attitude control of CNES microsatellites. We design a controller which stabilizes the attitude of the satellite whatever the value of its inertia. This attitude controller can also avoid the satellite reaction wheels to saturate. We design another robust adaptive attitude controller which has a better level of rejection of the perturbations than the static controller which is currently implemented aboard CNES satellites. Finally, we validate all the results of this manuscript by simulating on a AOCS CNES simulator the deployment of the satellite masts and some guiding jumps.
247

Optimisation de la fiabilité des structures contrôlées / Reliability optimization of controlled structures

Mrabet, Elyes 08 April 2016 (has links)
Le présent travail traite l’optimisation des paramètres des amortisseurs à masses accordées (AMA) accrochés sur des structures, linéaires. Les AMAs sont des dispositifs de contrôle passif utilisés pour atténuer les vibrations induites par des chargements dynamiques (en particulier stochastiques) appliqués sur des structures. L’efficacité de tels dispositifs est étroitement liée aux caractéristiques dynamiques qu’on doit imposer à ces systèmes. Dans ce cadre, plusieurs stratégies d’optimisation peuvent être utilisées dans des contextes déterministes et non déterministes, où les paramètres de la structure à contrôler sont incertains. Parmi les différentes approches qu’on peut trouver dans la littérature, l’optimisation structurale stochastique (OSS) et l’optimisation basée sur la fiabilité (OBF) étaient particulièrement traitées dans le présent travail.Dans la première partie de ce travail, en plus de la nature stochastique des chargements extérieurs appliqués à la structure linéaire à contrôler, la présence de paramètres structuraux de type incertains mais bornés (IMB) est prise en considération et les bornes optimales des paramètres AMA ont été calculées. Le calcul de ces bornes a été fait en utilisant une technique basée sur un développement de Taylor suivi d’une extension aux intervalles. La technique, permettant l’obtention d’une approximation des bornes optimales, a été appliquée dans les cas d’un système à un degré de liberté (1DDL) et un autre à plusieurs degrés de libertés (nDDL). Les résultats obtenus ont montrés que la technique utilisée était bien adaptée pour la stratégie OSS et elle l’est moins pour l’approche OBF.Comme suite logique aux résultats de la première partie, la seconde partie de la présente dissertation est consacrée à la présentation de deux méthodes permettant l’obtention des bornes exactes et des bornes approximées des paramètres optimaux de l’AMA et ce, en présence de paramètres structuraux de type IMB. La première méthode est celle de la boucle d’optimisation continue imbriquée, la seconde est celle des extensions aux intervalles basées sur la monotonie. Les méthodes présentées, qui ont été appliquées avec l’approche OBF, sont valables pour n’importe quel problème d’optimisation faisant intervenir des paramètres de type IMB. Mis à part le calcul de bornes optimisées du dispositif AMA, la question de la robustesse, vis-à-vis des incertitudes structurales, a été également traitée et il a été prouvé que la solution optimale correspondante au contexte déterministe était la plus robuste.L’introduction d’une nouvelle stratégie OBF des paramètres AMA a fait l’objet de la troisième partie de cette dissertation. En effet, un problème OBF est toujours relié à un mode de défaillance caractérisé par le franchissement d’une certaine réponse, de la structure à contrôler, d’un certain seuil limite pendant une certaine durée de temps. Le nouveau mode de défaillance, correspondant à la nouvelle stratégie OBF, consiste à considérer qu’une défaillance ait lieu lorsque la puissance dissipée au niveau de la structure à contrôler, pendant une période de temps, excède une certaine valeur. Faisant intervenir l’approche par franchissement ainsi que la formule de Rice, la nouvelle stratégie a été appliquée dans le cas d’un système 1DDL et l’expression exacte de la probabilité de défaillance est calculée. En se basant sur une approximation mettant en œuvre la technique du minimum d’entropie croisé, la nouvelle stratégie a été, également, appliquée dans le cas d’un système à nDDL et les résultats obtenus ont montrés la supériorité de cette stratégie par rapports à deux autres tirées de la bibliographie. / The present work deals with the parameters optimization of tuned mass dampers (TMD) used in the control of vibrating linear structures under stochastic loadings. The performance of the TMD device is deeply affected by its parameters that should be carefully chosen. In this context, several optimization strategies can be found in the literature and among them the stochastic structural optimization (SSO) and the reliability based optimization (RBO) are particularly addressed in this dissertation.The first part of this work in dedicated to the calculation of the optimal bounds solutions of the TMD parameters in presence of uncertain but bounded (UBB) structural parameters. The bounds of the optimal TMD parameters are obtained using an approximation technique based on Taylor expansion followed by interval extension. The numerical investigations applied with one degree of freedom (1DOF) and with multi-degree of freedom (multi-DOF) systems showed that the studied technique is suitable for the SSO strategy and that it’s less appropriate for the RBO strategy.As immediate consequence of the obtained results in the first part of this work, in the second part a method, called the continuous-optimization nested loop method (CONLM), providing the exact range of the optimal TMD parameters is presented and validated. The numerical studies demonstrated that the CONLM is time consuming and to overcome this disadvantage, a second method is also presented. The second method is called the monotonicity based extension method (MBEM) with box splitting. Both methods have been applied in the context of the RBO strategy with 1DOF and multi-DOF systems. The issue of effectiveness and robustness of the presented optimum bounds of the TMD parameters is also addressed and it has been demonstrated that the optimum solution corresponding to the deterministic context (deterministic structural parameters) provide good effectiveness and robustness.Another aspect of RBO approach is dealt in the third part of the present work. Indeed, a new RBO strategy of TMD parameters based on energetic criterion is presented and validated. The new RBO approach is linked to a new failure mode characterized by the exceedance of the power dissipated into the controlled structure over a certain threshold during some interval time. Based on the outcrossing approach and the Rice’s formula, the new strategy is firstly applied to 1DOF system and exact expression of the failure probability is calculated. After that, a multi-DOF system is considered and the minimum cross entropy method has been used providing an approximation to the failure probability and then the optimization is carried out. The numerical investigations showed the superiority of the presented strategy when compared with other from the literature.
248

Stochastic approach to the problem of predictive power in the theoretical modeling of the mean-field / Approche stochastique du problème du pouvoir prédictif dans la modélisation du champ moyen

Dedes Nonell, Irene 06 October 2017 (has links)
Les résultats de notre étude des capacités de modélisation théorique axées sur les approches phénoménologiques nucléaires dans le cadre de la théorie du champ-moyen sont présentés. On s’attend à ce qu’une théorie réaliste soit capable de prédire de manière satisfaisante les résultats des expériences à venir, c’est-à-dire avoir ce qu’on appelle un bon pouvoir prédictif. Pour étudier le pouvoir prédictif d’un modèle théorique, nous avons dû tenir compte non seulement des erreurs des données expérimentales, mais aussi des incertitudes issues des approximations du formalisme théorique et de l’existence de corrélations paramétriques. L’une des techniques centrales dans l’ajustement des paramètres est la solution de ce qu’on appelle le Problème Inverse. Les corrélations paramétriques induisent généralement un problème inverse mal-posé; elles doivent être étudiées et le modèle doit être régularisé. Nous avons testé deux types de hamiltoniens phénoménologiques réalistes montrant comment éliminer théoriquement et en pratique les corrélations paramétriques.Nous calculons les intervalles de confiance de niveau, les distributions d’incertitude des prédictions des modèles et nous avons montré comment améliorer les capacités de prédiction et la stabilité de la théorie. / Results of our study of the theoretical modelling capacities focussing on the nuclear phenomenological mean-field approaches are presented. It is expected that a realistic theory should be capable of predicting satisfactorily the results of the experiments to come, i.e., having what is called a good predictive power. To study the predictive power of a theoretical model, we had to take into account not only the errors of the experimental data but also the uncertainties originating from approximations of the theoretical formalism and the existence of parametric correlations. One of the central techniques in the parameter adjustment is the solution of what is called the Inverse Problem. Parametric correlations usually induce ill-posedness of the inverse problem; they need to be studied and the model regularised. We have tested two types of realistic phenomenological Hamiltonians showing how to eliminate the parametric correlations theoretically and in practice. We calculate the level confidence intervals, the uncertainty distributions of model predictions and have shown how to improve theory’s prediction capacities and stability.
249

Développement de méthodologies et d'outils numériques pour l'évaluation du débit en réseau hydraulique à surface libre / Development of methodologies and numerical tools to evaluate the flow rate in free surface hydraulic systems

Isel, Sandra 31 January 2014 (has links)
L’évaluation du débit en réseaux hydrauliques à surface libre est une problématique actuelle sur le plan scientifique, à forts enjeux technologiques, économiques et écologiques. Dans cette thèse, de nouvelles méthodologies d’instrumentation, basées sur une synergie entre mesures non intrusives de hauteur d’eau et modélisation numérique ont été développées. Celles-ci s’appliquent d’une part à des collecteurs dont le fonctionnement hydraulique est complexe et, d’autre part, à des ouvrages non-standard (Venturi, déversoirs d’orage). Ce travail de thèse multidisciplinaire vise une meilleure compréhension de l’écoulement pour en déduire des relations Q=f(hi) plus robustes, spécifiques à chaque site et associées à leurs incertitudes; mais également l’identification de possibles modifications du site de mesure afin d’améliorer l’estimation du débit. Au final, l’applicabilité des méthodologies développées a été éprouvée au travers de plusieurs études sur sites réels. / The evaluation of the flow rate in free surface water systems is a current scientific problem, related to high technological, economical and ecological issues. In this study, new methods of instrumentation based on a synergy between non-intrusive water level measurements and numerical modeling have been developed. These methods are applied first to sewer pipes with complex hydraulic conditions then to non-standard hydraulic structures (Venturi flumes, Combined Sewer Overflows). This multidisciplinary work aims at a better understanding of the flow to identify more robust site-specific Q=f(hi) relationships related to their uncertainties. It also aims at the identification of possible modification of the measurement site in order to improve the flow rate evaluation. Finally, the applicability of the developed methodologies has been tested through several real site studies.
250

Poissons des rivières françaises et changement climatique : impacts sur la distribution des espèces et incertitudes des projections / Potential impacts of climate change on the distribution of freshwater fishes in French streams and uncertainty of projections

Buisson, Laetitia 01 October 2009 (has links)
Les changements climatiques et leurs impacts sur la biodiversité font aujourd'hui l'objet d'une attention croissante de la part de la communauté scientifique et des gestionnaires des écosystèmes naturels. En effet, le climat influence la biologie et l'écologie des espèces animales et végétales, depuis leur physiologie jusqu'à leur répartition. Les modifications climatiques pourraient donc avoir des répercussions importantes sur les espèces et les assemblages. Au sein des écosystèmes aquatiques continentaux, les poissons de rivière sont des organismes incapables de réguler leur température corporelle et soumis à une variabilité hydrologique importante ainsi qu'à de fortes pressions anthropiques. Leur réponse aux modifications du climat actuelles et à venir a pourtant été encore peu abordée. L'objectif de ce travail de thèse est donc d'évaluer les impacts potentiels du changement climatique sur les poissons des rivières françaises, et plus particulièrement sur la distribution des espèces et la structure des assemblages. Des données fournies par l'Office National de l'Eau et des Milieux Aquatiques ainsi qu'une approche de modélisation basée sur les niches écologiques des espèces (i.e., modèles de distribution) ont été utilisées. Différentes sources d'incertitude ont également été testées dans une approche d'ensembles afin de prendre en compte la variabilité entre les impacts projetés et fournir ainsi une évaluation robuste de ces impacts. La première partie de ce travail a consisté en l'identification des principaux déterminants environnementaux qui structurent la répartition spatiale des espèces de poisson au sein des réseaux hydrographiques. Globalement, il apparaît qu'une combinaison de facteurs climatiques et de variables décrivant l'habitat local et la position des habitats au sein des réseaux hydrographiques est importante pour expliquer la distribution actuelle des espèces. De plus, les espèces ont toutes des réponses différentes aux facteurs de l'environnement. Dans un second temps, nous avons mis en évidence que le choix de la méthode statistique de modélisation de la niche écologique est crucial, les patrons actuels et futurs de distribution prédits étant fortement contrastés selon la méthode de modélisation considérée. Cette dernière s'avère même être la principale source d'incertitude dans les projections futures, bien plus encore que les modèles climatiques de circulation générale et les scénarios d'émission de gaz à effet de serre. La variabilité entre les prédictions issues de plusieurs techniques de modélisation peut être prise en compte par une approche de consensus. Un modèle consensuel basé sur la valeur moyenne de l'ensemble de prédictions est capable de prédire correctement la distribution actuelle des espèces et la composition des assemblages. Nous avons donc choisi de retenir cette approche pour évaluer au mieux les impacts potentiels du changement climatique sur les poissons des rivières françaises à la fin du 21ème siècle. Nous avons montré que la majorité des espèces de poisson pourrait être affectée par les futures modifications du climat. Seules quelques espèces d'eau froide (e.g. truite fario, chabot) pourraient restreindre leur distribution aux parties les plus apicales des réseaux hydrographiques. Au contraire, les espèces tolérant des températures plus élevées pourraient coloniser de nouveaux habitats et étendre ainsi leur répartition. Ces modifications de la distribution des espèces pourraient conduire à un réarrangement des assemblages au niveau taxonomique et fonctionnel. Une augmentation de la diversité locale et de la similarité régionale (i.e., homogénéisation) sont ainsi prédites simultanément. L'ensemble de ces résultats apporte donc des éléments sur la compréhension de la distribution des poissons d'eau douce et sur les conséquences du changement climatique qui peuvent être envisagées. Ce travail fournit ainsi une base aux acteurs de la gestion de la biodiversité afin d'initier des mesures de conservation concrètes. De plus, les considérations méthodologiques développées dans cette thèse sont une contribution importante à l'amélioration des projections issues de modèles statistiques de distribution et à la quantification de leur incertitude. / Climate change and its impact on biodiversity are receiving increasing attention from scientists and people managing natural ecosystems. Indeed, climate has a major influence on the biology and ecology of fauna and flora, from physiology to distribution. Climate change may thus have major consequences on species and assemblages. Among freshwater ecosystems, stream fish have no physiological ability to regulate their body temperature and they have to cope with streams' hydrological variability and strong anthropogenic pressures. Yet their response to current and future climate change has been poorly studied. The aim of this PhD thesis is to assess the potential impact of climate change on fish in French streams, mainly on species distribution and assemblages' structure. Data provided by the Office National de l'Eau et des Milieux Aquatiques combined with a modelling approach based on species' ecological niche (i.e., distribution models) have been used. Several sources of uncertainty have also been considered in an ensemble modeling framework in order to account for the variability between projected impacts and to provide reliable estimates of such impact. First, we have identified the main environmental factors that determine the spatial distribution of fish species within river networks. Overall, it appears that a combination of both climatic variables and variables describing the local habitat and its position within the river network is important to explain the current species distribution. Moreover, each fish species responded differently to the environmental factors. Second, we have highlighted that the choice of the statistical method used to model the fish ecological niche is crucial given that the current and future patterns of distribution predicted by different statistical methods vary significantly. The statistical method appears to be the main source of uncertainty, resulting in more variability in projections than the global circulation models and greenhouse gas emission scenarios. The variability between predictions from several statistical methods can be taken into account by a consensus approach. Consensual predictions based on the computation of the average of the whole predictions ensemble have achieved accurate predictions of the current species distribution and assemblages' composition. We have therefore selected this approach to assess the potential impacts of climate change on fish in French streams at the end of the 21st century with the highest degree of confidence. We have found that most fish species could be sensitive to the future climate modifications. Only a few cold-water species (i.e., brown trout, bullhead) could restrict their distribution to the most upstream parts of river networks. On the contrary, cool- and warm-water fish species could colonize many newly suitable habitats and expand strongly their distribution. These changes of species distribution could lead to a rearrangement of fish assemblages both at the taxonomic and functional levels. An increase in local diversity together with an increase in regional similarity (i.e., homogenization) are therefore expected. All these results bring new insights for the understanding of stream fish species distribution and expected consequences of climate change. This work thus provides biodiversity managers and conservationists with a basis to take efficient preservation measures. In addition, methodological developments considered in this PhD thesis are an important contribution to the improvements of projections by statistical models of species distribution and to the quantification of their uncertainty.

Page generated in 0.1294 seconds