• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 78
  • 17
  • 5
  • 1
  • 1
  • Tagged with
  • 98
  • 98
  • 35
  • 31
  • 20
  • 20
  • 12
  • 12
  • 11
  • 11
  • 9
  • 9
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Assisted design and analysis of attack trees / Assistance à la conception et l’analyse d’arbres d’attaque

Audinot, Maxime 17 December 2018 (has links)
En analyse de risques, les arbres d’attaque sont utilisés pour évaluer les menaces sur un système. Les méthodes formelles permettent leur analyse quantitative et leur synthèse, mais les propriétés exprimant la qualité des arbres d’attaque par rapport au système n’ont pas été formalisées. Dans ce document, nous définissons un nouveau cadre formel pour les arbres d’attaque prenant en compte un modèle opérationnel du système, et dotant les arbres d’une sémantique de chemins. Nous définissons les propriétés de correction des raffinements, et étudions leurs complexités. A partir d’une attaque optimale dans un modèle de système quantitatif, nous guidons la conception d’un arbre d’attaque, en indiquant ses feuilles qui contribuent à l’attaque optimale considérée. / In risk analysis, attack trees are used to assess threats to a system. Formal methods allow for their quantitative analysis and synthesis, but the properties expressing the quality of the attack trees with respect to the system have not been formalized. In this document, we define a new formal framework for attack trees that takes an operational model of the system into account, and provides the trees with a path semantics. We define the correctness properties of refinements, and study their computational complexity. Given an optimal attack in a quantitative system model, we guide the design of a attack tree, indicating its leaves that contribute to considered the optimal attack.
22

Développement d'un système passif de suivi 3D du mouvement humain par filtrage particulaire

Saboune, Jamal 05 February 2008 (has links) (PDF)
Les chutes des personnes âgées à domicile présentent un problème important à cause de leur fréquence et de leurs conséquences médicales, psychologiques et économiques. Pour cela, l'idée d'une prévention des chutes s'avère nécessaire pour réduire leur nombre et leurs conséquences indésirables. Cette idée constitue la motivation principale des projets ANR PARAChute et Predica dont le but est de détecter une dérive vers la chute chez les personnes âgées à domicile. Ce travail de thèse s'inscrit dans le cadre de ce projet et a comme objectif de concevoir un système d'analyse de la marche qui devrait s'intégrer dans la méthode à proposer pour évaluer un risque de chute chez la personne âgée. Une étude des approches déjà adoptées pour évaluer l'équilibre dynamique d'une personne nous a permis d'identifier un certain nombre de paramètres et de tests validés comme étant pertinents pour la détection d'un risque de chute. Or, ces approches s'appuient sur des tests cliniques effectués par les gériatres ou sur l'utilisation de capteurs portables encombrants d'où la nécessité de développer un nouvel outil autonome et non encombrant pour extraire ces paramètres. Notre solution a été de concevoir un système de suivi 3D complet du mouvement humain, capable de nous fournir les positions de quelques points clé du corps durant la marche et à partir desquelles nous pouvons évaluer les paramètres recherchés. Le système de suivi développé utilise des images vidéo obtenues à l'aide d'un caméscope numérique grand public et ne nécessite pas l'intervention d'un opérateur ou l'usage de marqueurs portables. N'utilisant aucun modèle temporel de marche notre méthode est générique et simple. Elle est fondée sur un modèle 3D virtuel humanoïde et sur un nouvel algorithme de filtrage particulaire que nous avons développé dans le but d'estimer la configuration la plus probable de ce modèle vis à vis de l'image vidéo du corps réel. En raison de la nature non gaussienne et multimodale des densités de probabilité impliquées, l'usage d'une approche particulaire était nécessaire. L'algorithme développé, appelé 'Interval Particle Filtering' (IPF), réorganise l'espace de recherche des configurations probables du modèle virtuel d'une façon déterministe, efficace et optimisée. Dans le but de réduire la complexité de cet algorithme, une version factorisée utilisant les réseaux bayésiens dynamiques a été ensuite proposée. Cette version améliorée profite de la Rapport de thèse de Jamal Saboune 1 Résumé modélisation de la marche en une chaîne cinématique pour factoriser la construction du vecteur d'état et la fonction d'observation. En terme de reconstruction 3D, les résultats obtenus à l'aide de notre système de suivi sont assez satisfaisants. La comparaison des valeurs des paramètres recherchés, calculées à partir des positions 3D fournies par un système de référence et par l'algorithme (IPF), montre une erreur moyenne de mesure de 5%. Une étude du suivi longitudinal chez les personnes âgées sera alors nécessaire pour choisir les paramètres qui permettent de déceler une évolution vers un risque de chute chez les personnes âgées.
23

Une approche harmonisée pour l'évaluation de la sécurité des systèmes ferroviaires : de la décomposition fonctionnelle au modèle comportemental

Rafrafi, Meriem 26 November 2010 (has links) (PDF)
Les systèmes complexes ferroviaires étant de plus en plus contraints par des autorités de décision placées à un haut niveau d'abstraction, il devient problématique d'imposer des critères à une autre échelle que fonctionnelle. Ainsi, dès lors que l'on descend plus bas, nous sommes confrontés à des spécificités des systèmes nationaux qui font perdre la généralité du travail des décisionnaires Européens. Le problème est qu'à chaque niveau d'abstraction, des méthodes d'évaluation du risque existent, mais sans être compatibles entre elles. Par ailleurs, la combinaison des couches et la vision fonctionnelle du système ne prennent pas en compte l'impact des fonctions les unes sur les autres, ni le lien entre le niveau global et les composants afin d'allouer la sécurité.Nous proposons donc une démarche harmonisée d'évaluation du risque, capable de répartir les contraintes définies au niveau fonctionnel abstrait sur les entités qui implémentent les systèmes avec leurs spécificités.Notre contribution est méthodologique. Elle part d'un modèle fonctionnel du système ferroviaire constitué en couches. Le but étant de représenter ce système sans dépendance entre les fonctions, il a fallu les traduire indépendamment des autres en faisant apparaître les entrées/sorties comme des places/transitions d'un réseau de Petri. A chaque couche de la décomposition correspond une classe de réseau de Petri. Ainsi, à la couche structurelle, nous associons les réseaux de Petri Temporels; à la couche fonctionnelle les réseaux de Petri stochastiques et à la couche logique les réseaux de Petri Prédicats Transitions
24

Élaboration d'un modèle de trafic à partir de données massives de trajectoires automobiles en assurance

Blais, Philippe 01 June 2021 (has links)
En assurance automobile, la prédiction du risque est un enjeu majeur. Pour faire les meilleures prédictions possibles, il est important d'utiliser les bonnes informations. Dans les récentes années, un nouveau modèle d'assurance a vu le jour, le Usage-Based-Insurance (UBI), qui a permis la mesure de nouvelles variables comme les freinages ou les accélérations, appelées évènements. Par ailleurs, l'arrivée du UBI a amené l'industrie à s'intéresser davantage à la compréhension des comportements routiers, ce qui s'est traduit par le besoin de contextualiser ces évènements pour arriver à mieux comprendre leurs causes. Le but de cette recherche est de répondre à ce besoin de contextualisation en utilisant le trafic. L'objectif du projet est de modéliser le trafic à partir des données massives de trajectoires automobiles générées via le UBI. Deux méthodes de modélisation sont présentées. La première utilise une méthode de clustering pour détecter la congestion à partir de distributions de vitesses moyennes. La deuxième s'appuie plutôt sur une méthode de calcul de temps de parcours au niveau du segment routier. Les résultats de cette recherche confirment qu'il est possible d'utiliser les données d'assurance pour modéliser le trafic.
25

Quantitative risk analysis for linear infrastructure supported by permafrost : methodology and computer program

Brooks, Heather 31 October 2019 (has links)
Le pergélisol est omniprésent dans l’Arctique et l’Antarctique, et il est présent en haute altitude partout dans le monde. Les communautés et le développement industriel des régions pergélisolées ont besoin d’infrastructures de transport (routes, aéroports, chemins de fer, etc.), sachant que le transport y revêt une importance vitale au niveau social, économique et politique (Regehr, Milligan et Alfaro 2013). Toutefois, les changements climatiques auront des répercussions sur les infrastructures de transport existantes et futures en Alaska de l’ordre de 282 à 550 M$ (2015 USD), selon les scénarios d’émissions (Melvin et al. 2016). Vu ces conditions, des outils sont nécessaires pour aider les décideurs à prioriser l’entretien, le remplacement et la construction des infrastructures, et potentiellement justifier l’utilisation des stratégies de mitigation pour les remblais sur pergélisol. Des méthodes d’analyse de risque peuvent être utilisées, mais leur application en ingénierie du pergélisol est actuellement limitée. Le risque est un produit du hasard, de la conséquence et de la vulnérabilité pour chacun des dangers considérés. La probabilité et le coût de l’occurrence d’un danger sont respectivement un hasard et une conséquence, tandis que la vulnérabilité corrèle le dommage possible avec la conséquence. Comme il existe peu de données de défaillance pour les installations sur pergélisol, le risque doit être déterminé à l’aide des méthodes d’analyse de fiabilité (premier-ordre deuxièmemoment ou simulations de Monte Carlo), qui intègrent les incertitudes des paramètres d’entrée pour déterminer la variabilité des résultats. Ces méthodes exigent la caractérisation de l’incertitude des variables aléatoires, ce qui peut être difficile en l’absence de données suffisantes, souvent plus que nécessaire dans la pratique actuelle. En outre, ces méthodes d’analyse de fiabilité exigent une fonction d’état limite pour que le danger soit analysé. Les dangers communs qui affectent les remblais sur pergélisol incluent : le tassement, la fissuration, la rupture soudaine, le déplacement latéral du remblai, le drainage et l’accumulation d’eau en pied de remblai, et les glissements de la couche active. Parmi ces dangers, seuls quelques-uns ont des fonctions d’état limite déterminées ou qui peuvent être approfondies par l’auteure. Les dangers associés à ces fonctions d’état limite ou de hasard comprennent : les tassements totaux et différentiels au dégel, la formation d’arche par le positionnement de particules audessus de cavité, les glissements de la couche active, la rupture de la pente du ponceau et l’affaissement de la structure du ponceau. Un programme a été créé sur le logiciel Excel pour calculer le risque des installations linéaires construites sur un remblai de pergélisol en utilisant les méthodes statistiques appliquées aux fonctions d’état limite afin de déterminer les dangers communs aux infrastructures sur pergélisol, ainsi que d'estimer les coûts directs de réparation et les facteurs d’échelle permettant de tenir compte des coûts indirects des dommages causés aux utilisateurs de l’infrastructure et aux communautés concernées. Les calculs des risques sont basés sur les propriétés géotechniques et l’incertitude climatique, telles que caractérisées par des fonctions de densité de probabilité, en utilisant les méthodes statistiques de simulations de Monte Carlo. Une analyse de la fragilité du réchauffement climatique permet de recalculer les dangers à partir des variations des températures de l’air. Les analyses répétées le long de l’infrastructure fournissent un profil de risque actuel ainsi qu'un profil tenant compte du réchauffement climatique. Le programme a servi à déterminer les dangers pour la route d’accès à l’aéroport de Salluit, et l'évaluation des dangers, des risques et de la rentabilité a été effectuée pour l’aéroport international d’Iqaluit / Permafrost is ubiquitous in the Arctic and Antarctic, and present in high elevation regions throughout the world. The communities and industrial development in permafrost regions require transportation infrastructures (roadways, airports, railways, etc.) and, in these regions, transportation is of vital social, economic, and political importance (Regehr, Milligan, and Alfaro 2013). However, warming climate conditions will endanger existing and future transportation infrastructure in Alaska to the tune of $282 to $550 million (2015 USD) depending on future emission scenarios (Melvin et al. 2016). Given these conditions, tools are required to aid decisionmakers in prioritizing infrastructure maintenance, replacement, and construction, and potentially justifying the use of mitigation strategies of permafrost embankments. Risk analysis methods can be used but their existing application to permafrost engineering is limited. Risk is a product of hazard, consequence and vulnerability for each of the dangers under consideration. The probability and costs of a danger’s occurrence is a hazard and the consequence, respectively, while vulnerability correlated the damage with the consequence. Since little failure data is available for permafrost infrastructure, the hazard must be determined from reliability analysis methods (First-Order Second-Moment or Monte Carlo Simulation), which aggregate the uncertainty of input parameters to determine the result’s variation. These methods require the characterization of random variable uncertainty, which can be difficult without sufficient data, often more than the current standard-of-practice. Additionally, the method requires a limit state function for the danger to be analyzed. Common dangers effecting permafrost embankment infrastructure included: settlement, cracking, sudden collapse, lateral embankment spreading, drainage and ponding water, and active layer detachment landslides. Of these dangers, only a few have existing limit state functions or have limit state functions that can be developed by the author. The dangers with limit state functions or hazard functions include: total and differential thaw settlement, particle position bridging over voids, active layer detachment landslides, and culvert gradient and structural failure. A Microsoft Excel-based program was created to calculate the risk for permafrost embankment linear infrastructure, using statistical methods applied to limit state functions to determine hazards for common permafrost dangers, estimated direct costs for the repair of a hazard’s occurrence, and scaling factors to account for the indirect costs of damage to the infrastructure’s users and connected communities. Hazard calculations are based on geotechnical property and climate uncertainty, as characterized by probability density functions, using Monte Carlo Simulation methods. A climate change fragility analysis recalculates the hazard with warming air temperatures. Repeated analyses along the infrastructure provide a risk profile of the infrastructure, now and with a warming climate. The program is used to determine hazard for the Airport Access Road in Salluit, and hazard, risk and cost/benefit assessments were conducted using this program for the Iqaluit International Airport.
26

L'intégration des considérations éthiques à la réglementation des biotechnologies

Lord, Francis 18 April 2018 (has links)
La plupart des pays industrialisés fondent la réglementation de l’introduction de produits et de substances sur des considérations scientifiques, notamment à travers l’analyse des risques. Ce modèle réglementaire fondé sur la science est lourdement critiqué par différents commentateurs pour sa négligence des considérations éthiques propres à l’introduction des biotechnologies. Ces commentateurs proposent de réformer ce modèle en reconnaissant les questions normatives de l’analyse des risques et en modifiant les fonctions essentielles de la réglementation de la biotechnologie. Les moyens proposés pour réaliser ces fins incluent la consultation de comités d’éthique, la résolution des questions normatives préalablement à l’analyse des risques, de même que la mise en œuvre juridique de normes éthiques. Le présent mémoire analyse les différents enjeux de l’intégration des considérations éthiques à la réglementation des biotechnologies en évaluant l’adéquation entre les fins recherchées par les commentateurs et les moyens qu’ils proposent pour y parvenir. / Most industrialized countries base the regulation of the introduction of products and substances on scientific considerations, notably through risk analysis. This science-based regulatory model is heavily criticized by different commentators for its negligence of ethical considerations specific to the introduction of biotechnologies. These commentators propose to reform this model by acknowledging the normative questions of risk analysis and by modifying the essential functions of biotechnology regulation. Proposed means to concretize these ends include the consultation of ethics committees, the resolution of normative questions before risk analysis, and the legal enforcement of ethical norms. This thesis analyzes different issues related to the integration of ethical considerations to the regulation of biotechnology by evaluating the adequacy between the ends sought by the commentators and the means they propose to reach them.
27

Théorie des probabilités et risque : penser l'optimisme épistémologique après la catastrophe

Dubois, Frédéric 23 April 2018 (has links)
Pour Ulrich Beck, les sociétés modernes sont des « sociétés du risque ». Alors que les développements scientifiques n’ont cessé d’accroître le potentiel technique de l’homme, les succès de la science moderne ont en contrepartie produit des risques et des menaces sans précédent dans l’histoire de l’humanité. Les experts-scientifiques peuvent néanmoins espérer prévoir ces menaces à l'aide des théories probabilistes qu’ils ont eux-mêmes développées. Ainsi, la maîtrise du calcul des aléas, un triomphe de la Raison, semble nous donner un pouvoir d’agir contre l’éventualité de l’actualisation des risques. « Savoir, c’est pouvoir », selon la formule de Francis Bacon. Calculer les risques devrait donc, selon cette même logique, nous donner ce pouvoir d’éviter le pire. Néanmoins, comme Tchernobyl et, plus récemment, Fukushima nous l'ont appris, l’inattendu peut toujours frapper. Ainsi, malgré la prétendue précision de nos calculs probabilistes, le pire demeure possible. Un optimiste pourrait toujours rétorquer que l’actualisation du pire nous permettra de perfectionner nos outils de prédictions. Pour parler en termes leibniziens, une catastrophe est un mal pour un plus grand Bien. Mais que dire alors de la logique des probabilités une fois l’aveu de l’échec de nos calculs? Est-il intrinsèquement impossible d’arriver à un calcul du risque sans risque? Faut-il alors se résigner à cette limite intrinsèque de notre savoir? Ces dernières questions nous conduisent non seulement à questionner la logique interne du calcul des probabilités, mais également la conception moderne du risque qui est au cœur des développements scientifiques modernes. / According to Ulrich Beck, modern societies are “risk societies”. On one hand, modernity has been the cradle of scientific development and, in the wake, the triumph of Reason. On another hand, its scientific successes gave rise to new technologies with such potential risks that some thinkers come to fear the worst for our modern societies. Yet, scientific-experts may hope to prevent and, therefore, rejoice the power to act against the eventuality of such disasters. Indeed, since the refinement of probabilistic theories, science now possesses a powerful tool to foresight the risks it produces. “Knowledge is power”, as Francis Bacon’s credo suggests. Hence, to calculate risks should be sufficient to seize the threats mankind is facing and, thereby, act upon it. But, what if, despite the more precise calculus possible, the worst was still to happen? As Chernobyl and, more recently, Fukushima reminded us, hazard might still have his way over the human ingenuity. Nuclear energy might be a simple example among an increasing number of emerging risk technologies. Still, the gravity of the consequences of its recent failures might whereas be the display of a deeper modern threat. We think we can learn from our experiences and, in such a way, as Leibniz would have said, a catastrophe becomes a prerequisite evil for a greater Good. Can we really learn from our experiences in a way we can, without a doubt, avoid a further catastrophe? Is there not in the epistemological optimism internal logic a greater threat that is obscured by our conception of risk as a mathematical concept? We then have to question not only the internal logic of an optimistic epistemology, but as well the modern constructed concept of risk as it presents itself as the core of modern developments.
28

Mesures de risque et dépendance

Mailhot, Mélina 19 April 2018 (has links)
En théorie du risque, la tâche principale de l'actuaire consiste à gérer les risques souscrits par l'entreprise afin qu'elle soit à tout moment en mesure de remplir ses obligations. Les mesures de risque sont de précieux outils à cet effet. Dans cette thèse, les mesures de risque et méthodes d'allocation de capital en fonction de la dépendance entre les risques sont étudiées. Aussi, de nouvelles mesures de risque et méthodes d'allocation de capital sont développées, dans le cadre de portefeuilles multivariés partiellement agrégés avec dépendance entre les risques. L'introduction présente une revue de la littérature ainsi que les concepts traités dans cette thèse. Dans un second chapitre, l'allocation de capital basée sur la mesure Tail Value-at-Risk (TVaR) pour un portefeuille de risques agrégés, suivant des distributions composées multivariées avec sévérités continues est présentée. Le troisième chapitre fait l'étude de la mesure Value-at-Risk (VaR) bivariée. Cette dernière est redéfinie, afin de pouvoir étudier son comportement, en fonction de la dépendance entre les risques. Plusieurs résultats sur les conditions de convexité et par rapport aux ordres de concordance ainsi qu'aux bornes en fonction de cette mesure sont montrés. Une application intéressante en assurance est aussi présentée. Les nouvelles mesures de risque TVaR bivarié de quadrant inférieur et supérieur sont présentées dans le quatrième chapitre. Ces mesures sont motivées, étudiées et appliquées pour des annuités liées à des actifs. Le cinquième chapitre fait part de méthodes numériques efficaces pour calculer des bornes inférieures et supérieures d'une fonction de répartition représentant une somme de variables aléatoires. Cet algorithme permet aussi le calcul de bornes pour la VaR d'une somme de variables aléatoires. Une brève conclusion rappelle les apports de cette thèse et suggère quelques avenues de recherche intéressantes en lien avec les sujets traités. / In risk theory, the main task of the actuary is to manage the risks underwritten by the company so that, at any time, it will be able to fulfill its obligations. Risk measures are valuable tools for this purpose. In this thesis, risk measures and capital allocation methods based on the dependence between multivariate risks are studied. Also, new measures of risk and capital allocation methods are developed within the framework of multivariate portfolios with partially aggregated dependencies between risks. The introduction presents a literature review and the concepts discussed in this thesis. In the second chapter, the capital allocation based on the measure Tail Value-at- Risk (TVaR) for a portfolio of risks following multivariate distributions with continuous severities is presented. The third chapter is the study of the bivariate Value-at-Risk (VaR). The latter is studied and illustrated, according to the dependence between risks. Several results on the conditions of convexity and relative to concordance orders and bounds of this metric are set. An interesting application in insurance is also presented. The new bivariate lower and upper orthant TVaR are presented in chapter four. These measures are motivated, studied and applied to Equity Indexed Annuities associated with correlated assets. The fifth chapter presents a numerical algorithm in order to calculate lower and upper bounds for sums of random variables. The method suggested is concise and parsimonious. It also allows to compute bounds for the VaR for sums of random variables. A brief conclusion recalls the contributions of this thesis and suggests some interesting research venues in connection with topics discussed in the previous chapters.
29

Caractérisation du risque incendie de la paille compressée comme isolant d'une structure en bois

Blondin, Frédéric 16 April 2019 (has links)
De nombreux programmes de construction écologique ont vu le jour depuis la dernière décennie visant à promouvoir la construction de bâtiments plus durables. Considérant que les matériaux biosourcés peuvent aider à réduire l’empreinte environnementale des bâtiments, il est judicieux d’en étendre leur utilisation. Un récent engouement s’est créé pour les sous-produits de culture céréalière en guise de remplacement aux fibres isolantes non renouvelables dans les structures en bois. De nombreux chercheurs ont étudié certaines isolations naturelles alternatives utilisées de nos jours. En comparaison aux matériaux d’isolations commerciaux, ces matériaux ont un impact environnemental remarquablement faible. Dans cette optique, l’utilisation de la paille compressée comme isolant offre un très faible impact dans l’analyse de son cycle de vie. Cependant, la sécurité incendie a toujours été une grande préoccupation pour les constructeurs utilisant des matériaux naturels combustibles. L'objectif de cette étude est de documenter le risque incendie de la paille compressée lorsqu'elle est utilisée comme matériau isolant dans des assemblages à ossature en bois. Trois densités de paille comprimée (75, 125 et 175 kg/m3) ont été sélectionnées pour évaluer leurs propriétés de combustion et leur conductivité thermique, en essayant de déterminer laquelle avait la meilleure combinaison de propriétés. La paille de la densité sélectionnée a ensuite été comparée aux matériaux d'isolation combustibles disponibles sur le marché pour comparer leur risque d'incendie. Par la suite, cet isolant de même densité a été testé dans un assemblage à ossature en bois à moyenne échelle pour évaluer l'impact de sa charge combustible comparativement à un matériau d'isolation incombustible. Les résultats ont démontré que la paille compressée d'une densité de 75 kg/m3 avait les meilleures propriétés de combustion et d'isolation. Les résultats suggèrent que la paille compressée aurait très probablement un meilleur comportement au feu par rapport à ceux des matériaux d'isolation combustibles disponibles sur le marché. Malgré la nature combustible de la paille compressée, l'impact de sa charge combustible dans un système de construction en bois a été moins important que prévu. Les propriétés de combustion de la paille compressée étant moins dangereuses que les matériaux d'isolation combustibles disponibles sur le marché, ainsi que l'impact de sa charge calorifique dans une structure à ossature de bois, l'utilisation de ce matériau comme isolant principal dans un bâtiment est, par bonne conception, gérable sans augmenter les risques / Many green building programs have emerged since the last decade to promote the construction of more sustainable buildings. Considering those biobased materials can help reduce the environmental footprint of buildings, it is wise to expand their use. A recent craze has emerged for cereal crop byproducts as a substitute for nonrenewable insulation fibers in wood structures. Many researchers have studied some of the alternative natural insulation materials used today. Compared to commercial insulation materials, these materials have a remarkably low environmental impact. In this context, the use of compressed straw as insulation offers a very low impact in the analysis of its life cycle. However, fire safety has always been a big concern for builders using natural combustible materials. The objective of this study is to document the fire hazard of compressed straw when it is used as an insulating material in wood frame assemblies. Three compressed straw densities (75, 125 and 175 kg/m3) were selected to evaluate their combustion properties and thermal conductivity, in attempt to determine which had the best combination of properties. The selected density straw was then compared to commercially available combustible insulation materials to compare their fire risk. Subsequently, this same density straw was tested in a medium-scale wood frame assembly to evaluate the impact of its fuel load comparatively to a non-combustible insulation material. The results showed that compressed straw with a density of 75 kg/m3 had the best properties of combustion and insulation. The results suggest that compressed straw would most likely have better fire performance compared to combustible insulation materials available on the market. Despite the combustible nature of the compressed straw, the impact of its fuel load in a wooden construction system was less than expected. Because the burning properties of compressed straw are less hazardous than commercially available combustible insulation materials and the impact of its heat load in a wood frame structure, the use of this material as an insulator in a building is, by design, manageable without increasing risks.
30

Risk assessment of foot and mouth disease in the border between Brazil and Paraguay : a geographical approach

Basso Amaral, Thaís 19 April 2018 (has links)
La fièvre aphteuse (FA) est l'une des maladies infectieuses les plus importantes qui affectent les animaux biongulés. Le Brésil est libre avec vaccination depuis 2001, mais en 2005, une épidémie est survenue à la frontière entre le Brésil et le Paraguay. Identifier les exploitations agricoles ou des espaces géographiques qui sont le plus à risque de fièvre aphteuse en particulier dans les régions frontalières est l'un des principaux objectifs du service vétérinaire officiel du Brésil et aussi d'autres pays d'Amérique du Sud. Les indicateurs utilisés par le gouvernement brésilien pour indentifier les zones à risque de fièvre aphteuse prennent en considération essentiellement des informations au niveau du troupeau (structure du troupeau, la présence de jeunes animaux, rapport vache / veau, etc.). Dans ce contexte, l'objectif principal de notre recherche est d'élaborer un cadre pour l'évaluation des risques de fièvre aphteuse à la frontière entre le Brésil et le Paraguay prenant en compte les aspects géographiques liés aux systèmes de production. Afin d'atteindre cet objectif, l'étude a été divisée en trois articles. Le premier article dresse un aperçu concernant les pratiques d'hygiène et de contrôle de la FA dans cette zone particulière. Quatre-vingt-sept agriculteurs ont été interrogés sur cinq thèmes principaux: la caractérisation des agriculteurs, les indicateurs sanitaires, la vaccination de la fièvre aphteuse, la circulation des personnes et des animaux ainsi que l'opinion des agriculteurs sur les risques d'introduction de la FA. Les résultats montrent que les agriculteurs sont conscients de leur rôle dans le combat contre la fièvre aphteuse. Il montre également que les agriculteurs, surtout les petits, ont besoin d'être mieux soutenus. Ils n'ont toujours pas de contrôle sanitaire formel. Ils ont besoin de formation et d’un constant soutien. Même si cette région a le même statut sanitaire que le reste du Mato Grosso do Sul, qui est libre de fièvre aphteuse avec vaccination, le contrôle et les différentes mesures sanitaires doivent se poursuivre. Le deuxième article explore la possibilité d'utiliser la télédétection pour cartographier et pour surveiller les zones de pâturage afin d’établir des modèles localisés de prédiction de densité de bétail. Un modèle statistique afin de prédire le nombre de bovins en fonction de la superficie de pâturage déclarée par les agriculteurs, a été réalisé sur la base de données officielle concernant l'élevage de la zone d‘étude. Finalement, ce modèle a été appliqué aux zones de pâturage détectées par classification orientée objet pour prédire la densité bovine. Les résultats indiquent que la méthodologie utilisée pour estimer la densité du bétail peut être utilisée dans des régions où l'information sur l'emplacement et la densité de ferme d'élevage est inexistante. Dans le troisième article, nous avons testé l'approche à majorité floue d’analyse multicritère de décision basée sur un système d’information geographique (SIG - AMC) afin de déterminer les zones à risque d'introduction de la FA. Deux scénarios ont été comparés, le premier basé sur la ferme (où l'information officielle est disponible) et le second basé sur la télédétection (où seulement l'information géographique est disponible). Les cartes obtenues mettent en évidence la forte hétérogénéité spatiale du risque d'introduction de la FA. Une corrélation positive a été observée entre les scénarios basés sur la ferme et les scénarios basés sur la télédétection. Cette étude fournit un cadre alternatif pour détecter les zones à risque de FA et de cette manière pour renforcer les mesures sanitaires brésiliennes. Il a également un grand potentiel pour être extrapolé à d'autres régions ayant des caractéristiques similaires mais où des informations au niveau du troupeau sont rares, ou inexistantes, comme d'autres régions reculées du Brésil ou d'autres pays d'Amérique du Sud Mots-clés : régions frontalières, analyse multicritère à la décision, télédétection, analyse de risques de fièvre aphteuse / Foot and mouth disease (FMD) is one of the most important infectious diseases that can affect cloven hoofed animals. Brazil is free with vaccination since 2001, but in 2005 an outbreak occurred in the border between Brazil and Paraguay. Identifying farms or geographic spaces that are more at risk of FMD, especially in border regions, is one of the main goals of official veterinary service from Brazil and other South American countries. Indicators used by the Brazilian government to indentify FMD risk areas takes into consideration basic information at herd level. For these reasons, the principal objective of this research was to elaborate a framework for FMD risk assessment in the frontier between Brazil and Paraguay that takes in account geographic aspects associated with production systems information. In order to accomplish this objective, the study was divided in three articles. The first article draws an overview regarding sanitary practices and FMD control in this particular zone. Eighty seven farmers were interviewed regarding five main subjects: farmers’ characterization, sanitary indicators, FMD disease vaccination, people and animal movements and farmer’s opinions about FMD risks of introduction. The results show that farmers are conscious of their roles in FMD control. It also shows that among small farmers there is a need to be better assisted. Such farmers lack formal sanitary controls and they need constant training and support. Even if this region has the same sanitary status as the rest of Mato Grosso do Sul State (which is FMD free with vaccination), differentiated sanitary measures and control should continue. The second article explores the potential use of remote sensing to map and monitor pasture areas and to establish models for predicting cattle density and location. A statistical model to predict numbers of cattle in function of declared pasture area by the farmers was produced on the basis of Brazilian official livestock databases for the studied area. Finally, this model was applied to the pasture areas detected by oriented based classification to predict cattle density. The results indicate that the methodology used for estimating cattle density has the potential to be applied in regions where no information about farm location and cattle density exists. In the third article the fuzzy majority approach for GIS based multicriteria decision analysis (GIS – MCDA) was tested to determine risk areas of FMD introduction. Two main scenarios were compared: a farm-based one (where official information is available) and a remote sensing-based one (where only geographic information is available). Resulting maps highlighted a strong spatial heterogeneity in the risk of FMD introduction. A positive correlation was observed between farm-based scenarios and remote sensing-based scenarios. This study provides an alternative framework to detect areas of higher risk of FMD and by this way reinforce Brazilian sanitary measures. It also has great potential to be extrapolated for other regions with similar characteristics but where information at herd level are sparse or inexistent such as remote regions of Brazil and other South American countries. Key-words: border regions, multicriteria decision analysis, remote sensing, FMD risk assessment.

Page generated in 0.1077 seconds