• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 392
  • 115
  • 38
  • 11
  • 5
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 571
  • 186
  • 109
  • 79
  • 78
  • 72
  • 69
  • 59
  • 51
  • 45
  • 42
  • 40
  • 39
  • 38
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
551

Le cadrage des débats linguistiques dans la presse anglophone et francophone au Québec : un clivage médiatique? : analyse de la couverture du projet de loi 14

Zschalich, Florian 01 1900 (has links)
La littérature scientifique estime généralement que les messages médiatiques influencent les perceptions des récepteurs. Ils contribuent ainsi à la formation d’identités et à la cohésion sociale. La recherche au Canada a souvent constaté une divergence de couverture entre les médias québécois et canadiens-anglais. Ce clivage médiatique a été soupçonné d’avoir amplifié les différences entre les deux communautés. Toutefois, la recherche sur les divergences entre la presse francophone et anglophone au Québec reste peu développée. Ce travail se demande si ce clivage médiatique existe également dans le paysage médiatique québécois. À cette fin, nous identifions les cadres (frames) employés par des journaux de langue anglaise et française au Québec, c’est-à-dire les schémas interprétatifs fournis par les médias pour faire sens de l’actualité. Pour vérifier l’hypothèse, selon laquelle le cadrage diverge entre la presse anglophone et francophone du Québec, nous avons analysé la couverture du projet de loi 14 dans dix journaux pendant 50 semaines. Avec une approche mixte, combinant une analyse automatisée et une analyse qualitative selon la matrice (frame matrix) de Van Gorp (2005), nous avons identifié les cadres linguistique, social, politique, pragmatique et souverainiste. Nos résultats montrent que quatre cadres sont mobilisés par la presse anglophone et francophone et que les médias reprennent partiellement les discours de l’autre communauté. Cependant, les deux groupes de médias favorisent différents cadres et les articulent différemment. Le rapprochement des médias anglophones et francophones au Québec est donc limité, entre autres en raison d’expériences historiques divergentes et de l’activisme de journaux communautaires. / It is generally believed that media messages influence the perceptions of audiences. Thus, they contribute to identity formation and to social cohesion. However, research in Canada has often found discrepancies in coverage by Quebec and English-Canadian media. This media divide has been suspected of amplifying the differences between the two communities. Yet, research on the differences between the Francophone and the Anglophone press in Quebec is limited. This thesis poses the question whether a linguistic divide also exists in the Quebec media landscape. For this purpose, we identified the frames mobilized by French- and English-language newspapers. We understand frames as interpretative schemata proposed by the media to make sense of news events. To verify our hypothesis that frames differ in the English and French language media of Quebec, we analyzed the coverage of Bill 14 by ten newspapers during 50 weeks. Using a mixed method, which combined a computer-assisted and a qualitative analysis using Van Gorp’s (2005) frame matrix, we identified linguistic, social, political, pragmatic and sovereignist frames. Our results show that four of these frames were used by both French- and English-language newspapers and that the media partially took up discourses from the other language community. However, the two groups prefer different frames and articulate them differently. The rapprochement of Anglophone and Francophone media in Quebec is thus limited, among other things, by diverging historic experiences and activism by community newspapers.
552

Etudes théoriques des propriétés optiques linéaires et non-linéaires des biomolécules. / Theoretical studies of linear and non-linear optical properties of biomolecules

Bonvicini, Andrea 24 October 2019 (has links)
Dans cette thèse, les propriétés optiques de biomolécules importantes ont été étudiées en utilisant une approche théorique et, dans un cas, aussi expérimentale. La Théorie de la fonctionnelle de la densité (DFT) et la timedependent-DFT (TD-DFT) sont les principales méthodes de chimie quantique utilisées dans cette thèse. Plusieurs spectroscopies ont été étudiées (au niveau théorique et, dans certains cas, également au niveau expérimental) : absorption électronique linéaire (absorption à un photon, OPA) et non-linéaire (absorption à deux ou trois photons, TPA et 3PA), dichroïsme circulaire électronique (DCE) et spectroscopie de fluorescence. Les effets de l’environnement, particulièrement importants dans des systèmes biologiques, ont été pris en compte, pour les propriétés de l’état fondamental et des états excités en utilisant une méthode multi-échelles QM/MM appelée Polarizable Embedding (PE). L’échantillonnage des conformations a été pris en compte avec des simulations de dynamique moléculaire (MD) qui sont basées sur la mécanique classique. Deux thématiques ont été étudiées dans cette thèse : le cholestérol et le design in silico de ses analogues fluorescents ainsi que la caractérisation des coudes de type β dans différentes conformations grâce à la simulation des spectres DCE. La simulation de plus d’une spectroscopie a été importante dans l’étude des états excités du cholestérol dans des solutions organiques. Le design in silico a suggéré un nouveau stérol-polyénique (P-stérol) qui montre despropriétés optiques améliorées pour le mécanisme d’excitation à trois photons par rapport au déhydroergostérol (DHE), une sonde du cholestérol déjà très utilisée. Ce nouveau P-stérol a été suggéré pour la synthèse. L’étude des spectres de DCE des coudes β en différentes conformations a mené une double conclusion : même si deux allures de DCE pour les conformations des coudes β étudiées (4) ont été trouvées (dans la majorité des cas), la spectroscopie de DCE doit toujours être associée à d’autres techniques spectroscopiques dans la caractérisation en solution des coudes β. / In this thesis, the optical properties of important biomolecules were studied using a theoretical approach and, in one case, also an experimental one. Density Functional Theory (DFT) and time-dependent-DFT (TD-DFT), were the principal quantum chemical methods adopted in this thesis.Various spectroscopies were studied (theoretically and, in some cases, also experimentally) : linear (one-photon, OPA) and non-linear (two- and three-photon, TPA and 3PA) electronic absorption, electronic circular dichroism (ECD) and fluorescence spectroscopy. The environment effects, which are particularly important in biological systems, were taken into account, for both ground and excited states properties, using a multiscale QM/MM method called Polarizable Embedding (PE). The sampling of conformations was addressed by Molecular Dynamic (MD) simulations based on classical mechanics. Two topics were studied in this thesis: cholesterol and the in-silico design of its fluorescent analogues, and the characterization of β-turns in different conformations by simulations of their ECD spectra in aqueous solutions. The simulation of more than one spectroscopy resulted to be important when studying the electronic excited states of cholesterol in organic solutions. The in-silico design study suggested a novel polyene-sterol (P-sterol) which shows improved optical properties for the three-photon excitation mechanism with respect to dehydroergosterol (DHE), an already widely used cholesterol probe. This new P-sterol was thus suggested for synthesis. The achievement from the study of ECD spectra for different β-turn conformations is two-fold: even if two ECD patterns for the β-turn conformations studied (4) were found (in most of cases), ECD spectroscopy should be always associated with other spectroscopic techniques when trying to characterize the β-turn conformations in solutions.
553

Modélisation et commande des robots : nouvelles approches basées sur les modèles Takagi-Sugeno / Modeling and control of robots : new approaches based on the Takagi-Sugeno models

Allouche, Benyamine 15 September 2016 (has links)
Chaque année, plus de 5 millions de personne à travers le monde deviennent hémiplégiques suite à un accident vasculaire cérébral. Ce soudain déficit neurologique conduit bien souvent à une perte partielle ou totale de la station debout et/ou à la perte de la capacité de déambulation. Dans l’optique de proposer de nouvelles solutions d’assistance situées entre le fauteuil roulant et le déambulateur, cette thèse s’inscrit dans le cadre du projet ANR TECSAN VHIPOD « véhicule individuel de transport en station debout auto-équilibrée pour personnes handicapées avec aide à la verticalisation ». Dans ce contexte, ces travaux de recherche apportent des éléments de réponse à deux problématiques fondamentales du projet : l’assistance au passage assis-debout (PAD) des personnes hémiplégiques et le déplacement à l’aide d’un véhicule auto-équilibré à deux roues. Ces problématiques sont abordées du point de vue de la robotique avec comme question centrale : peut-on utiliser l’approche Takagi-Sugeno (TS) pour la synthèse d’une commande ? Dans un premier temps, la problématique de mobilité des personnes handicapées a été traitée sur la base d’une solution de type gyropode. Des lois de commande basées sur les approches TS standard et descripteur ont été proposées afin d’étudier la stabilisation des gyropodes dans des situations particulières telles que le déplacement sur un terrain en pente ou le franchissement de petites marches. Les résultats obtenus ont non seulement permis d’aboutir à un concept potentiellement capable de franchir des obstacles, mais ils ont également permis de souligner la principale difficulté liée à l’applicabilité de l’approche TS en raison du conservatisme des conditions LMIs (inégalités matricielles linéaires). Dans un second temps, un banc d’assistance au PAD à architecture parallèle a été conçu. Ce type de manipulateur constitué de multiples boucles cinématiques présente un modèle dynamique très complexe (habituellement donné sous forme d’équations différentielles ordinaires). L’application de lois de commande basées sur l’approche TS est souvent vouée à l’échec compte tenu du grand nombre de non-linéarités dans le modèle. Afin de remédier à ce problème, une nouvelle approche de modélisation a été proposée. À partir d’un jeu de coordonnées bien particulier, le principe des puissances virtuelles est utilisé pour générer un modèle dynamique sous forme d’équations algébro-différentielles (DAEs). Cette approche permet d’aboutir à un modèle quasi-LPV où les seuls paramètres variants représentent les multiplicateurs de Lagrange issus de la modélisation DAE. Les résultats obtenus ont été validés en simulation sur un robot parallèle à 2 degrés de liberté (ddl) puis sur un robot parallèle à 3 ddl développé pour l’assistance au PAD. / Every year more than 5 million people worldwide become hemiplegic as a direct consequence of stroke. This neurological deficiency, often leads to a partial or a total loss of standing up abilities and /or ambulation skills. In order to propose new supporting solutions lying between the wheelchair and the walker, this thesis comes within the ANR TECSAN project named VHIPOD “self-balanced transporter for disabled persons with sit-to-stand function”. In this context, this research provides some answers for two key issues of the project : the sit-to-stand assistance (STS) of hemiplegic people and their mobility through a two wheeled self-balanced solution. These issues are addressed from a robotic point of view while focusing on a key question : are we able to extend the use of Takagi-Sugeno approach (TS) to the control of complex systems ? Firstly, the issue of mobility of disabled persons was treated on the basis of a self-balanced solution. Control laws based on the standard and descriptor TS approaches have been proposed for the stabilization of gyropod in particular situations such as moving along a slope or crossing small steps. The results have led to the design a two-wheeled transporter which is potentially able to deal with the steps. On the other hand, these results have also highlighted the main challenge related to the use of TS approach such as the conservatisms of the LMIs constraints (Linear Matrix Inequalities). In a second time, a test bench for the STS assistance based on parallel kinematic manipulator (PKM) was designed. This kind of manipulator characterized by several closed kinematic chains often presents a complex dynamical model (given as a set of ordinary differential equations, ODEs). The application of control laws based on the TS approach is often doomed to failure given the large number of non-linear terms in the model. To overcome this problem, a new modeling approach was proposed. From a particular set of coordinates, the principle of virtual power was used to generate a dynamical model based on the differential algebraic equations (DAEs). This approach leads to a quasi-LPV model where the only varying parameters are the Lagrange multipliers derived from the constraint equations of the DAE model. The results were validated on simulation through a 2-DOF (degrees of freedom) parallel robot (Biglide) and a 3-DOF manipulator (Triglide) designed for the STS assistance.
554

Identification of novel regulatory pathways involved in non-enzymatic resistance to aminoglycosides in Pseudomonas aeruginosa / Identifications de nouvelles voies de régulation impliquées dans la résistance non enzymatique aux aminosides chez Pseudomonas aeruginosa

Bolard, Arnaud 05 July 2019 (has links)
Les antibiotiques sont des molécules incontournables dans le traitement des infections bactériennes. L’émergence et la dissémination de la résistance aux antibiotiques chez la pathogène opportuniste Pseudomonas aeruginosa, ont amené l’Organisation Mondiale de la Santé à déclarer indispensable le développement de nouvelles approches thérapeutiques pour lutter contre cette bactérie. Bien que certaines alternatives aient été envisagées, la préservation de l’activité d’antibiotiques majeurs tels que les aminosides et la colistine est primordiale. La caractérisation des mécanismes de résistance à ces médicaments est nécessaire pour la mise au point de nouvelles molécules et mieux prendre en charge les patients. Dans ce contexte, nous montrons que des mutations dans le gène fusA1 (codant le facteur d’élongation EF-G1A) et dans l’opéron pmrAB (système à deux composants PmrAB) entrainent une augmentation de la résistance aux aminosides chez des mutants isolés au laboratoire et des souches issues de patients, atteints ou non, de mucoviscidose. Certaines substitutions d’acide aminé dans EF-G1A accroissent les niveaux de résistance de 2 à 16 fois aux quatre sous-classes d’aminosides. Par ailleurs, des changements d’acide aminé dans le système à deux composants PmrAB activent l’expression des gènes PA4773-PA4774-PA4775, et la production de norspermidine et de spermidine. La synthèse de ces polyamines va de pair avec une baisse de 4 à 16 fois de la sensibilité aux aminosides à noyan 2-désoxystreptamine bisubstitué en 4,6 (gentamicine, amikacine et tobramycine). De plus, il apparaît que la résistance des mutants pmrB à la colistine est en partie dépendante de la pompe d’efflux MexXY(OprM), un système impliqué dans la résistance naturelle, adaptative ou acquise aux aminosides. Enfin, nous montrons que les mutants pmrB surproduisent des alcaloïdes contenant un motif azétidine, par une voie de synthèse non-ribosomale et dépendante du quorum sensing. Ces alcaloïdes diminuent la virulence de P. aeruginosa dans le modèle Galleria mellonella. / Antibiotics are invaluable drugs to combat bacterial infections. Emergence and spread of antibiotic resistance in the opportunistic pathogen Pseudomonas aeruginosa have led the World Health Organization to consider as a crucial priority the development of new therapeutic approaches to fight this bacterium. In addition to other alternatives, preservation of activity of major antibiotics such as aminoglycosides and colistin is primordial. Consequently, characterization of the resistance mechanisms to these drugs is a prerequisite to design novel molecules, and improve patient care. In this context, we show that mutations in gene fusA1 (encoding elongation factor EF-G1A) and in operon pmrAB (two-component system PmrAB) lead to an increased resistance to aminoglycosides in in vitro-selected mutants and strains isolated from cystic fibrosis (CF) and non-CF patients. Certain amino acid substitutions in EF-G1A confer a 2- to 16-fold increased resistance to the four aminoglycoside subclasses. On the other hand, amino acid variations in two-component system PmrAB activate the expression of genes PA4773-PA4774-PA4775, and production of norspermidine and spermidine. This upregulated polyamine biosynthesis is associated with a 4- to 16-fold decreased susceptibility to 4,6-di-substituted deoxystreptamine aminoglycosides (gentamicin, amikacin and tobramycin). Moreover, our work reveals that the acquired resistance of pmrB mutants to colistin partially depends upon pump MexXY(OprM), a system that otherwise mediates intrinsic, adaptive and acquired resistance to aminoglycosides. Finally, we show that pmrB mutants overproduce azetidine-containing alkaloids by a quorum-sensing-regulated, nonribosomal peptide synthetase pathway. These alkaloids impair the virulence of P. aeruginosa in a Galleria mellonella infection model.
555

Model-based hyperparameter optimization

Crouther, Paul 04 1900 (has links)
The primary goal of this work is to propose a methodology for discovering hyperparameters. Hyperparameters aid systems in convergence when well-tuned and handcrafted. However, to this end, poorly chosen hyperparameters leave practitioners in limbo, between concerns with implementation or improper choice in hyperparameter and system configuration. We specifically analyze the choice of learning rate in stochastic gradient descent (SGD), a popular algorithm. As a secondary goal, we attempt the discovery of fixed points using smoothing of the loss landscape by exploiting assumptions about its distribution to improve the update rule in SGD. Smoothing of the loss landscape has been shown to make convergence possible in large-scale systems and difficult black-box optimization problems. However, we use stochastic value gradients (SVG) to smooth the loss landscape by learning a surrogate model and then backpropagate through this model to discover fixed points on the real task SGD is trying to solve. Additionally, we construct a gym environment for testing model-free algorithms, such as Proximal Policy Optimization (PPO) as a hyperparameter optimizer for SGD. For tasks, we focus on a toy problem and analyze the convergence of SGD on MNIST using model-free and model-based reinforcement learning methods for control. The model is learned from the parameters of the true optimizer and used specifically for learning rates rather than for prediction. In experiments, we perform in an online and offline setting. In the online setting, we learn a surrogate model alongside the true optimizer, where hyperparameters are tuned in real-time for the true optimizer. In the offline setting, we show that there is more potential in the model-based learning methodology than in the model-free configuration due to this surrogate model that smooths out the loss landscape and makes for more helpful gradients during backpropagation. / L’objectif principal de ce travail est de proposer une méthodologie de découverte des hyperparamètres. Les hyperparamètres aident les systèmes à converger lorsqu’ils sont bien réglés et fabriqués à la main. Cependant, à cette fin, des hyperparamètres mal choisis laissent les praticiens dans l’incertitude, entre soucis de mise en oeuvre ou mauvais choix d’hyperparamètre et de configuration du système. Nous analysons spécifiquement le choix du taux d’apprentissage dans la descente de gradient stochastique (SGD), un algorithme populaire. Comme objectif secondaire, nous tentons de découvrir des points fixes en utilisant le lissage du paysage des pertes en exploitant des hypothèses sur sa distribution pour améliorer la règle de mise à jour dans SGD. Il a été démontré que le lissage du paysage des pertes rend la convergence possible dans les systèmes à grande échelle et les problèmes difficiles d’optimisation de la boîte noire. Cependant, nous utilisons des gradients de valeur stochastiques (SVG) pour lisser le paysage des pertes en apprenant un modèle de substitution, puis rétropropager à travers ce modèle pour découvrir des points fixes sur la tâche réelle que SGD essaie de résoudre. De plus, nous construisons un environnement de gym pour tester des algorithmes sans modèle, tels que Proximal Policy Optimization (PPO) en tant qu’optimiseur d’hyperparamètres pour SGD. Pour les tâches, nous nous concentrons sur un problème de jouet et analysons la convergence de SGD sur MNIST en utilisant des méthodes d’apprentissage par renforcement sans modèle et basées sur un modèle pour le contrôle. Le modèle est appris à partir des paramètres du véritable optimiseur et utilisé spécifiquement pour les taux d’apprentissage plutôt que pour la prédiction. Dans les expériences, nous effectuons dans un cadre en ligne et hors ligne. Dans le cadre en ligne, nous apprenons un modèle de substitution aux côtés du véritable optimiseur, où les hyperparamètres sont réglés en temps réel pour le véritable optimiseur. Dans le cadre hors ligne, nous montrons qu’il y a plus de potentiel dans la méthodologie d’apprentissage basée sur un modèle que dans la configuration sans modèle en raison de ce modèle de substitution qui lisse le paysage des pertes et crée des gradients plus utiles lors de la rétropropagation.
556

Étude par simulation numérique de la sensibilité au bruit des mesures de paramètres pharmacocinétiques par tomographie par émission de positrons

Aber, Yassine 08 1900 (has links)
La modélisation pharmacocinétique en tomographie par émission par positrons (TEP) permet d’estimer les paramètres physiologiques liés à l’accumulation dynamique d’un radiotraceur. Les paramètres estimés sont biaisés par le bruit dans les images TEP dynamiques durant l’ajustement des courbes d’activité des tissus, plus communément appelées TAC de l’anglais Time Activity Curve. La qualité des images TEP dynamiques est limitée par la statistique de comptage et influencée par les paramètres de reconstruction choisis en termes de résolution spatiale et temporelle. Il n’existe pas de recommandations claires pour les paramètres de reconstruction à utiliser pour les images dynamiques TEP. L’objectif de ce projet de maitrise est d’évaluer le biais dans l’estimation des paramètres pharmacocinétiques afin de trouver les paramètres de reconstruction TEP les plus optimaux en termes de résolution spatiale et de niveau de bruit. Plus précisément, ce projet cherche à déterminer quel modèle d’AIF offre les meilleurs ajustements, mais aussi quel modèle de poids permet la meilleure estimation des paramètres pharmacocinétiques pour le modèle à deux compartiments. Ce faisant, il serait possible de mieux planifier la reconstruction d’images TEP dynamique et potentiellement améliorer leur résolution spatiale. Afin de tester les biais dans les paramètres pharmacocinétiques sous différents niveaux de bruit, un objet de référence numérique (DRO) avec les informations trouvées dans la littérature sera construit. Ensuite, des simulations numériques seront effectuées avec ce DRO afin de trouver les paramètres de reconstruction et le niveau de bruit le plus optimal. Un biais réduit des paramètres pharmacocinétiques et une meilleure résolution spatiale des images TEP dynamique permettrait de détecter des cancers ou tumeurs à des stades moins avancés de la maladie, permettant potentiellement un traitement plus efficace et avec moins de séquelles et d’effets secondaires pour les patients. En outre, cela permettrait aussi de visualiser l’hétérogénéité des tumeurs. / Pharmacokinetic models in positron emission tomography (PET) allow for the estimation of physiological parameters linked to the dynamic accumulation of a radiotracer. Estimated parameters are biased by noise in dynamic PET images during the fitting of Time Activity Curves (TAC). Image quality in dynamic PET is limited by counting statistics and influenced by the chosen reconstruction parameters in terms of spatial and temporal resolution. Clear recommendations and guidelines for the reconstruction parameters that should be used do not exist at the moment for dynamic PET. The goal of this masters project is to evaluate the bias in the pharmacokinetic parameters estimation to find the optimal PET reconstruction parameters in terms of spatial resolution and noise levels. More precisely, this project aims to determine which AIF model produces the best fits, but also which weight noise model allows for the best parameters estimation with the two compartment model. It would then be possible to plan the PET image reconstruction more finely and potentially improve spatial resolution. To test the pharmacokinetic parameters’ biases under different noise levels, a Digital Reference Object (DRO) with information and specifications found from the litterature will be built. Then, numerical simulations will be done with that DRO to find the optimal noise level and value for the pharmacokinetic parameter. A reduced bias in these parameters and an improved spatial resolution would allow the detection of tumors or lesions at earlier stages, which could potentially allow for a more potent treatment with less short and long term side effects. It would also allow the visualization and quantification of lesion heterogeneity.
557

Multi-attribute deterministic and stochastic two echelon location routing problems

Escobar Vargas, David 10 1900 (has links)
Les problèmes de localisation-routage à deux échelons (2E-LRP) sont devenus un domaine de recherche important dans le domaine de la logistique et de la gestion de la chaîne d'approvisionnement. Le 2E-LRP représente un problème d'optimisation dans les systèmes de distribution non dirigés, visant à organiser le transport de marchandises entre les plateformes et les clients par le biais d'installations intermédiaires appelées satellites. Ce problème implique de prendre des décisions simultanées concernant l'emplacement d'un ou deux niveaux d'installations (plateformes et/ou satellites) et de créer un ensemble limité d'itinéraires aux deux échelons afin de répondre efficacement à toutes les demandes des clients. Récemment, la communauté scientifique s'est intéressée de plus en plus à l'étude et à la résolution de problèmes plus réalistes. Cet intérêt provient de la reconnaissance du fait que les systèmes de distribution du monde réel sont caractérisés par une multitude de complexités et d'incertitudes qui ont un impact significatif sur l'efficacité opérationnelle, la rentabilité et la satisfaction des clients. Les chercheurs ont reconnu la nécessité d'aborder ces complexités et incertitudes pour développer des solutions pratiques et efficaces. Cette thèse comprend trois études différentes, chacune correspondant à un article de recherche autonome. Dans les trois articles, nous nous concentrons sur différents 2E-LRP riches qui comprennent plusieurs attributs en interaction. Ces variantes du problème sont appelées problèmes de localisation-routage à deux échelons et à attributs multiples (2E-MALRP). Pour analyser l'influence des incertitudes sur les solutions optimales et les processus de prise de décision, nous considérons à la fois les perspectives déterministes et stochastiques. Cette approche nous permet de mieux comprendre le comportement de ces problèmes complexes. Le premier document de recherche abordé dans cette thèse se concentre sur un problème de localisation-routage déterministe à deux échelons et à attributs multiples avec synchronisation de la flotte dans les installations intermédiaires (2E-MALRPS). Le cadre du problème comprend divers facteurs, notamment la demande de marchandises multiples dépendant du temps, les fenêtres temporelles, le manque de capacité de stockage dans les installations intermédiaires et la nécessité de synchroniser les flottes opérant à différents échelons. Dans le 2E-MALRPS, tous les paramètres, tels que les demandes des clients, les temps de trajet et les coûts, sont connus avec certitude. Dans cet article, nous introduisons le cadre du problème, présentons une formulation de programmation en nombres entiers mixtes et proposons un cadre de découverte de discrétisation dynamique comme méthode de résolution du problème. Le deuxième article de cette thèse traite du problème de localisation-routage à deux échelons en cas de demandes stochastiques et corrélées (2E-MLRPSCD). Contrairement au 2E-MALRPS, le 2E-MLRPSCD prend en compte les incertitudes liées aux demandes des clients, ainsi que la corrélation entre ces demandes. Nous formulons le problème sous la forme d'un modèle de programmation stochastique en deux étapes. Au cours de la première étape, des décisions sont prises concernant la conception des installations satellites, tandis qu'au cours de la deuxième étape, des décisions de recours déterminent la manière dont les demandes observées sont servies. Nous proposons une métaheuristique de couverture progressive comme méthode de résolution. Dans cette approche, nous incorporons deux structures de population dans le cadre de la couverture progressive. Ces structures renforcent la diversité des décisions de conception obtenues pour chaque sous-problème de scénario et fournissent des informations pertinentes pour améliorer la qualité de la solution. En outre, nous introduisons et comparons trois nouvelles stratégies différentes pour accélérer la recherche de l'espace de solution pour le problème stochastique. Finalement, le troisième article présenté dans cette thèse se concentre sur un problème de localisation-routage multi-attributs à deux échelons avec des temps de trajet stochastiques (2E-MALRPSTT). Le 2E-MALRPSTT combine un problème multi-attributs riche avec des éléments stochastiques, en particulier en considérant des temps de trajet stochastiques. Pour traiter le problème stochastique complet, un cadre de couverture progressive (PH) est proposé en s'appuyant sur les lignes directrices méthodologiques définies dans notre deuxième article pour le 2E-MLRPSCD. En outre, une heuristique basée sur la décomposition est introduite pour accélérer le cadre PH, et deux nouvelles stratégies d'agrégation sont présentées pour accélérer le processus de consensus concernant les décisions de la première étape. Les contributions présentées dans cette thèse couvrent divers aspects de la modélisation et des méthodologies de solution pour les 2E-MALRP riches, à la fois d'un point de vue déterministe et d'un point de vue stochastique. Les trois articles inclus dans cette thèse démontrent l'efficacité des approches proposées à travers des campagnes expérimentales étendues, mettant en évidence leur efficacité de calcul et la qualité des solutions, en particulier dans les cas difficiles. En abordant les aspects déterministes et stochastiques de ces 2E-MALRP, cette thèse vise à contribuer à l'ensemble des connaissances en optimisation de la logistique et de la chaîne d'approvisionnement, à répondre aux besoins importants de la littérature actuelle et à fournir des informations importantes pour les systèmes de distribution à deux échelons dans divers contextes. / The Two-Echelon Location-Routing Problems (2E-LRPs) have emerged as a prominent research area within the field of logistics and supply chain management. The 2E-LRP represents an optimization problem in undirected distribution systems, aiming to streamline freight transportation between platforms and customers through intermediate facilities known as satellites. This problem involves making simultaneous decisions concerning the location of one or two levels of facilities (platforms and/or satellites) and creating a limited set of routes at both echelons to effectively serve all customer demands. In recent years, there has been a growing interest among the scientific community in studying and solving more realistic problem settings. This interest arises from the recognition that real-world distribution systems are characterized by a multitude of complexities and uncertainties that significantly impact operational efficiency, cost-effectiveness, and customer satisfaction. Researchers have acknowledged the need to address these complexities and uncertainties to develop practical and effective solutions. This dissertation comprises three distinct studies, each serving as a self-contained research article. In all three articles, we focus on different rich 2E-LRPs that encompass multiple interacting attributes. These problem variants are referred to as two-echelon multi-attribute location-routing problems (2E-MALRPs). To analyze the influence of uncertainties on optimal solutions and decision-making processes, we consider both deterministic and stochastic perspectives. This approach allows us to gain insights into the behavior of these complex problem settings. The first research paper addressed in this thesis focuses on a deterministic two-echelon multi-attribute location-routing problem with fleet synchronization at intermediate facilities (2E-MALRPS). The problem setting encompasses various factors, including time-dependent multicommodity demand, time windows, lack of storage capacity at intermediate facilities, and the need for synchronization of fleets operating at different echelons. In the 2E-MALRPS, all parameters, such as customer demands, travel times, and costs, are known with certainty. In this paper, we introduce the problem setting, present a mixed-integer programming formulation, and propose a dynamic discretization discovery framework as the solution method to address the problem. The second paper in this thesis addresses the two-echelon multicommodity location-routing problem with stochastic and correlated demands (2E-MLRPSCD). In contrast to the 2E-MALRPS, the 2E-MLRPSCD takes into account uncertainties related to customer demands, as well as the correlation among these demands. We formulate the problem as a two-stage stochastic programming model. In the first stage, decisions are made regarding the design of satellite facilities, while in the second stage, recourse decisions determine how the observed demands are allocated and served. We propose a progressive hedging metaheuristic as the solution method. In this approach, we incorporate two population structures within the progressive hedging framework. These structures enhance the diversity of the design decisions obtained for each scenario subproblem and provide valuable insights for improving the solution quality. Additionally, We also introduce and compare three different novel strategies to accelerate the search for the solution space for the stochastic problem. Finally, the third paper presented in this thesis focuses on a multi-attribute two-echelon location-routing problem with stochastic travel times (2E-MALRPSTT). The 2E-MALRPSTT combines a rich multi-attribute problem setting with stochastic elements, specifically considering stochastic travel times. To address the complete stochastic problem, a progressive hedging metaheuristic is proposed building on the methodological guidelines defined in our second paper for the 2E-MLRPSCD. Furthermore, a decomposition-based heuristic is introduced to accelerate the PH framework, and two novel selection strategies are presented to expedite the consensus process regarding the first-stage decisions. The contributions presented in this thesis encompass various aspects of modeling and solution methodologies for rich 2E-MALRPs from both deterministic and stochastic perspectives. The three articles included in this thesis demonstrate the effectiveness of the proposed approaches through extensive experimental campaigns, highlighting their computational efficiency and solution quality, particularly in challenging instances. By addressing the deterministic and stochastic aspects of these 2E-MALRPs, this thesis aims to contribute to the broader body of knowledge in logistics and supply chain optimization, fill important gaps in the present literature and provide valuable insights for two-echelon distribution systems in diverse settings.
558

Amélioration de la justesse des modèles d’hygiène du travail utilisés pour estimer les expositions professionnelles aux vapeurs de solvants

Abattan, Spéro Franck Aimé 09 1900 (has links)
Contexte : Les modèles physico-chimiques sont de plus en plus utilisés en hygiène du travail pour estimer l’exposition aux contaminants chimiques de l’air. Ils prédisent l’exposition à l’aide d’équations mathématiques qui relient les caractéristiques de l'émission des contaminants et leur dispersion dans l'air aux concentrations qui en résultent. La mise en œuvre de ces modèles est rapide, moins coûteuse que l’échantillonnage de l’air, et particulièrement indiquée pour les évaluations d'expositions passées et/ou futures. Les estimations de ces modèles, quoique généralement satisfaisantes, peuvent être, dans certains cas, biaisées du fait des incertitudes associées à l’estimation des paramètres d'entrée, notamment, le taux d'émission des contaminants, qui peut être particulièrement difficile à estimer. Objectifs : L’objectif principal de cette thèse était de proposer des améliorations aux modèles physico-chimiques utilisés en hygiène du travail afin de permettre des estimations plus fiables des concentrations de solvants dans l’air des milieux de travail. Trois objectifs spécifiques étaient définis pour l’étude : (1) effectuer une revue critique de la littérature existante sur le modèle à deux compartiments ; (2) améliorer l’estimation du taux d’émission des contaminants en situations de petits déversements de solvants organiques purs ou de mélanges idéaux de solvants ; (3) améliorer l’estimation du taux d’émission des contaminants en situations de petits déversements de mélanges non-idéaux de solvants organiques. Méthodes : Pour le premier objectif, une revue documentaire des publications scientifiques ayant utilisé le modèle à deux compartiments pour évaluer l'exposition aux vapeurs de solvants a été effectuée. Les données d’exposition (scénarios, solvants, conditions d’études), de modélisation (paramètres d’entrée, résultats) et d’évaluation des performances prédictives du modèle ont été compilées et analysées afin d’identifier les forces et les facteurs potentiels d’amélioration du modèle. Pour le deuxième objectif, trois équations d’estimation des constantes de taux d'évaporation de contaminants alphas (α) ont été développées, en se basant sur des modèles de régression statistiques mettant en relation des alphas expérimentaux mesurés pour cinq solvants purs lors de 183 tests d’évaporation simulant des petits déversements de solvants, et divers déterminants de alpha étudiés. La capacité prédictive des trois équations a été évaluée en comparant les alphas estimés avec des données expérimentales internes et externes à l’étude. Pour le troisième objectif, deux équations dérivées de la Loi de Raoult ont été proposées pour estimer les constantes de taux d'évaporation alphas lors de petits déversements de 12 mélanges aqueux binaires non-idéaux de solvants, en corrigeant ou non, pour la non-idéalité des mélanges. Les concentrations atmosphériques de contaminants, corrigées ou non, ont été prédites à l’aide d’un modèle de petit déversement proposé par le logiciel IHMOD. La qualité des estimations du modèle a été évaluée en comparant, graphiquement et numériquement, les concentrations prédites corrigées ou non, avec des mesures de concentrations réelles. Résultats : Pour le premier objectif, la revue de littérature a démontré l’efficacité du modèle à deux compartiments pour l’évaluation des expositions chimiques sur la base de ses performances de prédiction qui étaient globalement dans un facteur de 0,3 à 3,7 fois les concentrations réelles avec 93 % des valeurs comprises entre 0,5 et 2. Le modèle surestimait les concentrations réelles dans 63 % des évaluations, ce qui témoigne de son utilité à faire prendre, généralement, des décisions conservatrices au profit des travailleurs. L’estimation adéquate des paramètres d’entrée, notamment, du taux d’émission des contaminants, et l’inclusion d’autres facteurs influents tels que la géométrie de la source d’émission, le type et la position du système de ventilation, la présence et l’orientation du travailleur dans une pièce, ont été identifiés parmi les points majeurs d’amélioration du modèle. Pour le deuxième objectif, les alphas expérimentaux mesurés pour les cinq solvants purs variaient entre 0,002 et 0,448 min-1 avec une moyenne de 0,076 min-1. Les principaux déterminants de alpha identifiés étaient la pression de vapeur du solvant, le volume de solvant déversé, la surface de déversement, le ratio de surface de déversement/volume de déversement, la vitesse d’air au-dessus du déversement et la forme du récipient de déversement. Les trois équations développées dans notre étude ont prédit les alphas expérimentaux externes avec un degré élevé d'exactitude et de précision. Les pourcentages moyens d'erreur étaient de –32,9, –32,0 et –25,5 %, respectivement, avec des écarts-types associés aux pourcentages moyens d'erreur de 17,7, 33,3 et 26,0 %, respectivement, et des R2 de 0,92, 0,65 et 0,87, respectivement. Pour le troisième objectif, concernant l’évaluation des mélanges de solvants, les alphas estimés corrigés pour la non-idéalité des mélanges (médiane = 0,0318 min-1) étaient supérieurs à ceux non corrigés (médiane = 0,00632 min-1). Les concentrations modélisées en utilisant les alphas corrigés concordaient raisonnablement avec les concentrations mesurées, avec un ratio médian des concentrations maximales prédites/mesurées de 0,92 (0,81 à 1,32) et une différence médiane entre les temps d’atteinte des concentrations maximales prédites et mesurées de –5 min. Sans correction pour la non-idéalité, le ratio médian des concentrations maximales prédites/mesurées était de 0,31 (0,08 à 0,75) et la différence médiane entre les temps d’atteinte des concentrations maximales prédites et mesurées était de +33 min, ce qui démontre l’importance de considérer la non-idéalité des mélanges lors du processus d’estimation des expositions aux mélanges non-idéaux de solvants. Conclusion : Cette thèse a permis de développer une base de données de scénarios d'exposition et de valeurs des paramètres d'entrée du modèle à deux compartiments, de même que, des équations pratiques et performantes pour estimer des taux d’émission de contaminants en situations de petits déversements de solvants purs ou de mélanges de solvants. En cela, nos résultats constituent un renforcement quantitatif et qualitatif des outils de modélisation existants et une avancée dans l'amélioration des modèles physico-chimiques utilisés en hygiène du travail pour estimer les expositions chimiques. / Context : Physico-chemical models are increasingly used in occupational hygiene to estimate airborne contaminant concentrations. They predict exposure concentrations through mathematical equations that relate the characteristics of the contaminants’ mass emission and their dispersion in the air to the resulting concentrations. These models are quick to use, low cost, and exclusively indicated for past and/or future exposure assessments. Their estimates have been shown to be, generally, in a good agreement with actual air contaminant concentrations. But, sometimes, these models’ outcomes can be substantially biased due to the uncertainty associated with the estimation of the input parameters, notably, the contaminant mass emission rate, which can be particularly challenging to estimate. Objectives : The main objective of this thesis was to propose some improvements to the physico-chemical models used in occupational hygiene in order to allow for more reliable estimates of solvents’ concentrations in the air of the workplaces. Three specific objectives were defined for the study : (1) to perform a critical review of the existing literature on the two-zone model; (2) to improve the estimation of the contaminants’ mass emission rate in exposure scenarios involving small spills of pure organic solvents or ideal solvent mixtures; (3) to improve the estimation of the contaminants’ mass emission rate in exposure scenarios involving small spills of non-ideal organic solvent mixtures. Methods : For the first objective, a literature review based on scientific publications that used the two-zone model to assess exposures to solvent vapours was performed. Data on the exposures (scenarios, solvents, study conditions), the modeling processes (input parameters, results) and on the predictive performance of the model were compiled and analyzed to identify the strengths and the potential areas for the improvement of the model. For the second objective, three equations for estimating the contaminants evaporation rate constants alphas (α) were developed, based on statistical regression models, relating experimental alphas measured for five pure organic solvents during 183 evaporation tests simulating small spills of solvents, and various determinants of alpha. The predictive ability of the three equations was assessed by comparing the estimated alphas with both internal and external experimental measured alphas. For the third objective, two equations derived from Raoult's Law were proposed to estimate the contaminants evaporation rate constants alphas during small spills of 12 non-ideal binary aqueous mixtures, correcting or not for the non-ideality of the mixtures. Corrected and non-corrected air contaminants concentrations were predicted using a small spill model proposed by the IHMOD modeling tool. The quality of the model estimates was assessed by comparing, graphically and numerically, the corrected and non-corrected predicted contaminants concentrations to measured contaminants concentrations. Results : For the first objective, the literature review demonstrated the effectiveness of the two-zone model for assessing chemical exposures based on its predictive performance which was globally within a factor of 0.3 to 3.7 times the actual concentrations, with 93 % of the values being between 0.5 and 2. The model overestimated the actual concentrations in 63 % of the evaluations, which underlines the usefulness of the model for, generally, leading to make conservative decisions that would be beneficial to the workers. The adequate estimation of input parameters, notably, the contaminant mass emission rate, and inclusion of other influential factors such as the geometry of the emission source, the type and position of the ventilation system, the presence and orientation of a worker in a room were the major avenues identified for the improvement of the model. For the second objective, the measured experimental alpha values varied from 0.002 to 0.448 min-1 with an average value of 0.076 min-1. The main determinants identified for alpha were the vapor pressure of the solvent, the spill volume, the spill surface area, the spill surface area-to-spill volume ratio, the air speed above the spill, and the shape of the spill container. The three equations developed in our study predicted the external experimental alphas with a high degree of accuracy and precision. The mean percentages of error were –32.9, –32.0 and –25.5 %, respectively, with associated standard deviations of the percentages of error of 17.7, 33.3 and 26.0 %, respectively, and associated R2 of 0.92, 0.65 and 0.87, respectively. For the third objective, regarding the evaluations of the solvent mixtures, the estimated alpha values which were corrected for the non-ideality of the mixtures (median = 0.0318 min-1) were higher than those which were not corrected (median = 0.00632 min-1). Modeled concentrations using the corrected alphas reasonably agreed with measured concentrations, with a median predicted peak concentrations-to-measured peak concentrations ratio of 0.92 (0.81 to 1.32) and a median difference between the predicted and the measured peak times of –5 min. Without correction for non-ideality, the median predicted peak concentrations-to-measured peak concentrations ratio was 0.31 (0.08 to 0.75) and the median difference between the predicted and the measured peak times was +33 min, which demonstrates the importance of accounting for the non-ideality effect during the process of estimating exposures related to non-ideal solvent mixtures. Conclusion : In this thesis, we developed a database of exposure scenarios and values for the input parameters of the two-zone model, as well as, new practical and efficiently robust equations for estimating contaminants’ mass emission rates in exposure scenarios involving small spills of pure and mixed volatile liquids. Our results constitute a quantitative and qualitative reinforcement of the existing modeling tools and a step further in the improvement of the physico-chemical models used in occupational hygiene to estimate chemical exposure levels.
559

All alone avec soi-même : énonciation et identité dans le monologue fransaskois

Miller, Courtney 20 April 2018 (has links)
Dans « La littérature franco-ontarienne à la recherche d’une nouvelle voie : enjeux du particularisme et de l’universalisme » (2002), Lucie Hotte signale que les artistes francophones minoritaires, ayant longtemps puisé dans l’esthétique particulariste, optent maintenant pour une esthétique de l’univeralisme. Jane Moss confirme l’hypothèse de Hotte dans son article, « Francophone Theatre in Western Canada : Dramatic Tales of Disappearing Francophones » (2009). Moss observe qu’au sein du théâtre francophone dans l’Ouest canadien s’opère une transition quant à la représentation de l’identité francophone minoritaire vers un courant postmoderne où les dramaturges, mettant de côté les récits mémoriels nostalgiques, se penchent plutôt sur des thématiques plus universelles. Tout de même, le questionnement identitaire demeure latent à travers ces pièces. Par ailleurs, dans La distance habitée (2003) François Paré remarque que les énonciateurs minoritaires retiennent souvent une mémoire de migration et d’itinérance; que cette distance métaphorique les « habite »; et qu’ils se voient constamment forcés de négocier cette « distance » entre eux et la communauté majoritaire où ils vivent. Partant du constat du Moss, ce mémoire analyse l’énonciation de trois personnages/énonciateurs dans trois monologues fransaskois contemporains, soit Il était une fois Delmas, Sask... mais pas deux fois! d’André Roy, Elephant Wake de Joey Tremblay et Rearview de Gilles Poulin-Denis. Nous examinerons leur identité complexe, riche et problématique. Pour analyser l’énonciation de chacun des personnages, nous nous appuyons sur l’analyse de discours telle que développée par Dominique Maingueneau. Ce faisant, nous visons à combler une lacune importante dans la recherche sur le théâtre fransaskois.
560

Caractérisation physique et perceptive de différentes compositions de trafic routier urbain pour la détermination d'indicateurs de gêne en situation de mono-exposition et de multi-exposition / Physical and perceptual characterization of different compositions of urban road traffic for the determination of indicators of annoyance via single and combined exposure

Gille, Laure-Anne 01 July 2016 (has links)
Le bruit de la circulation routière, et en particulier le bruit des deux-roues motorisés, constituent une importante source de gêne sonore. Afin d’estimer l’exposition sonore dans les villes de plus 100 000 habitants, la directive européenne 2002/49/CE impose la réalisation de cartes de bruit stratégiques, basées sur l’indice Lden. Cet indice est également utilisé dans des relations exposition-réponse, afin de prédire les pourcentages de personnes gênées, notamment par le bruit du trafic routier. En couplant les cartes de bruit stratégiques et ces relations exposition-réponse, des cartes de gêne pourraient être établies. Toutefois, la pertinence de cet indice pour prédire la gêne due au bruit en milieu urbain est souvent remise en cause, car de nombreux facteurs acoustiques influents (e.g. les caractéristiques spectrales et temporelles) ne sont pas pris en compte par cet indice. Cette thèse vise à améliorer la caractérisation de la gêne due au bruit de trafic routier urbain en considérant différentes compositions de trafic et la présence des deux-roues motorisés. Dans ce but, des expériences sont menées en conditions contrôlées. Une première étude a porté sur l’influence de plusieurs facteurs acoustiques relatifs aux périodes de calme et aux bruits de passage de véhicules sur la gêne due au bruit de trafic routier urbain. Cette étude a conclu à l’influence de la présence de périodes de calme et du nombre de véhicules au sein du trafic routier urbain et à l’absence d’influence de l’ordre des véhicules routiers, de la position et de la durée des périodes de calme. Ces résultats ont été utilisés afin de mener la caractérisation physique et perceptive de différentes compositions de trafic routier urbain. La régression multi-niveau a été utilisée pour calculer la gêne, en considérant 1) des facteurs acoustiques influents à l’aide de combinaisons pertinentes d’indices et 2) un facteur non acoustique : la sensibilité au bruit. Dans les villes, le bruit routier est souvent entendu en situation de multi-exposition avec d’autres bruits. Dans le cadre de ces travaux de thèse, les situations de multi-exposition aux bruits routier et d’avion ont été étudiées. Pour cela, un travail semblable à celui mené pour le bruit de trafic routier urbain a été mené pour le bruit d’avion conduisant également à des combinaisons pertinentes d’indices. En vue de caractériser les gênes dues aux bruits de trafic routier et d’avion pour des situations de multi-exposition sonore, les données des précédentes expériences ainsi que celles d’une expérience conduite en situation de multi-exposition à ces bruits combinés ont été utilisées au travers d’une régression multi-niveau adaptée, comme cela a pu être mené dans la littérature. La régression multi-niveau a ainsi permis la proposition de modèles de gêne pour chaque source de bruit. Puis, la gêne totale due à des situations de multi-exposition à ces bruits a été étudiée, afin de mettre en évidence les phénomènes perceptifs mis en jeu. Des modèles de gêne totale ont été proposés, en utilisant les modèles de gêne due à chaque source. Enfin, les modèles de gêne obtenus pour chaque source et les modèles de gêne totale ont été confrontés aux données d’une enquête socio-acoustique. A cet effet, une méthodologie a été proposée afin d’estimer les différents indices des modèles à partir des valeurs du Lden, issues de cartes de bruit et utilisées pour définir l’exposition au bruit des personnes enquêtées. Cette confrontation a montré que les modèles proposés à partir d’expériences menées en laboratoire et couplés à la méthodologie d’estimation des indices à partir des valeurs du Lden permettent une bonne prédiction de la gêne in situ. / Road traffic noise, and in particular powered two-wheeler noise, constitute an important source of noise annoyance. In order to estimate the noise exposure in cities of more than 100 000 inhabitants, the European directive 2002/49/EC requires the elaboration of strategic noise maps, based on the Lden index. This index is also used in exposureresponse relationships, to predict the percentages of annoyed people, by road traffic noise for example. By coupling strategic noise maps and these exposure-response relationships, noise annoyance maps could be established. The relevance of this index to predict noise annoyance in cities is however often questioned, since many influential acoustical factors (e.g. spectral and temporal features) are not considered by this index. The aim of this thesis is to enhance the characterization of noise annoyance due to different compositions of urban road traffic including powered two-wheelers. To achieve this goal, experiments were carried out under controlled conditions. A first study concerned the influence of several acoustical features related to quiet periods and vehicle pass-by noises on the annoyance due to urban road traffic noise. This study demonstrated the influence of the presence of quiet periods and of the number of vehicles within the urban road traffic and to the absence of the influence of the order of the vehicle pass-by noises, the position and duration of quiet periods. These results were used to carry out the physical and perceptual characterization of different compositions of urban road traffic noise. Multilevel regression was used to calculate noise annoyance, by coupling combinations of indices relating to influential acoustical features and an individual factor: noise sensitivity. In cities, road traffic noise is often combined with other noises. In the framework of this thesis, noise exposure to road traffic noise combined with aircraft noise was studied. Therefore, the same work as the one performed for urban road traffic noise was carried out for aircraft noise, leading also to relevant combinations of noise indices. In order to characterize annoyances due to road traffic noise and to aircraft noise in a combined exposure situation, data from the previous experiments and from an experiment dealing with these combined noises were used through an appropriate multilevel regression, as done in literature. The regression allows annoyance models for each noise source to be proposed. Then, total annoyance due to combined noises was studied, in order to highlight the perceptual phenomena related to the combined exposure. Total noise annoyance models were proposed, using proposed annoyance model of each noise source. Finally, these single source annoyance models and total annoyance models were tested using data of a socio-acoustic survey. To do this, a methodology has been proposed to estimate the different indices involved in the annoyance models, from the Lden values obtained from the strategic noise maps and used to define the noise exposure of the respondents. This confrontation showed that the models proposed on the basis of experiments carried out under laboratory conditions and coupled with a methodology of estimation of the noise indices from Lden values, enabled a good prediction of in situ annoyance.

Page generated in 0.0902 seconds