161 |
Développement et application de nano-architectures cœur-coquille fluorescentes pour la mesure du pHAsselin, Jérémie 03 July 2018 (has links)
Les variations ioniques entrent en jeu dans presque tous les processus métaboliques cellulaires et bactériens. Par le fait même, leur dysfonctionnement induit une modification des concentrations attendues et provoque des maladies graves à même la solution physiologique ou le tissu biologique affecté. Parmi ces différents facteurs, le pH est un paramètre-clé régissant plusieurs activités comme la capacité enzymatique, la conformation tridimensionnelle des protéines et l’activation de certains transporteurs membranaires. Lors de ces travaux de doctorat, des nanoparticules fluorescentes sensibles au pH ont été développées et appliquées sous la forme d’un substrat lamellaire implantable directement dans l’environnement de culture de cellules. Ce nouvel outil analytique adapté pour la recherche biomédicale in vitro offre donc la possibilité de visualiser le pH en microscopie de façon quantitative avec une résolution spatiale (~1 μm) et temporelle (<300 ms). Pour ce faire, les nano-capteurs ont été optimisés dans le cadre d’une étude paramétrique structurale. Ces nanoparticules comportent un coeur métallique offrant une activité plasmonique qui permet d’exalter la fluorescence de chromophores incorporés dans une coquille de silice. La taille, la distance d’espacement, et le degré de recouvrement entre la bande plasmonique et le spectre d’excitation/émission de différents fluorophores ont donc été ajustés afin de rentabiliser la portée de l’effet amplificateur de ces architectures concentriques. Comme la chimie d’encapsulation des molécules sensibles est généralisable pour un grand nombre de précurseurs silanes, une démonstration a été faite pour un concept de nanoparticules multicouches permettant simultanément la détection multiélémentaire de la concentration en protons et en ions halogénure (Cl-, Br-, I-), et aussi la correction de ces signaux par rapport à une référence interne. La normalisation ratiométrique permet de compenser pour les fluctuations et erreurs expérimentales issues notamment de la concentration des capteurs, du photoblanchiment et de l’intensité de la source en fonction du temps. Finalement, cette stratégie a été appliquée dans une étude spectroscopique utilisant la fluorescéine dans des nanoparticules coeur-coquille en tant que rapporteur ratiométrique pour la mesure quantitative du pH dans des cultures cellulaires. Pour ce faire, les nano-architectures ont été fonctionnalisées, puis confinées en surface d’un substrat de silice par voie de couplage clic complémentaire. Ces lamelles de microscopie à valeur ajoutée offrent donc une surface adaptée pour la culture de cellules excitables comme les fibroblastes cardiaques et les neurones, mais aussi pour la croissance bactérienne de biofilms et l’analyse multiphase en microfluidique. / Ionic gradient changes are essential in almost every cellular and bacterial metabolic processes. Therefore, any malfunction that perturbs these ion concentrations can induce major illnesses in the affected physiological solution or biological tissue. Amongst all the chemical species influenced by cell metabolism, protons are key to many events; enzyme activity, protein structural changes, and activation of membrane transporters. In this doctoral thesis, pH-sensitive fluorescent nanoparticles were developed and grafted on planar substrates in order to probe the culture medium of different cells in vitro. These innovative analytical tools for biomedical research offer the possibility to image quantitative pH values in microscopy with both spatial (~1 μm) and temporal resolutions (<300 ms). As such, the sensors were optimized in a structural parametric study with regards to the nanoarchitecture design. These particles comprise a metallic core with plasmonic properties to enhance the fluorescence of molecules incorporated into a porous silica shell. The core size, the spacing layer thickness, the spectral overlap between the plasmon and the fluorescence excitation/emission bands, and the sensitive moieties were carefully chosen to take advantage of the plasmonic range of enhancement in concentric architectures. Since the covalent encapsulation of molecules is highly adaptable for many silanized fluorophores, core-multishell architectures were synthesized as a proof of concept which allows simultaneous measurements of pH and halides (Cl-, Br-, I-), and signal normalization with an internal reference onto the same nanoparticle. The ratiometric correction compensates for fluctuations in light intensity and experimental errors with sensor concentration, photobleaching and environmental effects as a function of time. Finally, this analytical strategy was applied in a spectroscopic study of fluorescein-doped nanoparticles as quantitative pH-sensitive markers implemented in biological cell cultures. Particularly, the core-shell nanoarchitectures were functionalized with a silane component and immobilized at the surface of a silica substrate by way of complementary click coupling. These improved microscope coverslips were evaluated as a fluorescent sensing surface for the culture of adhesive excitable cells – e.g. cardiac fibroblasts and neurons, but also for the growth of bacterial biofilms and the study of multiphase interfaces in microfluidic devices.
|
162 |
Utilisation du positionnement relatif temporel GNSS pour l'auscultation topographique et la mesure des vaguesChouaer, Mohamed Ali 24 April 2018 (has links)
Le Positionnement Relatif Temporel (ou TRP : Time Relative Positioning, en anglais) est une technique GNSS qui permet de mesurer un déplacement (et non pas une position) avec un seul récepteur en utilisant les différences de mesures de phase entre deux époques. Le but de ce projet de recherche est d’adapter le positionnement TRP pour l’auscultation topographique et pour la mesure des vagues, afin de détecter des déplacements, sur un court intervalle de temps, avec une précision meilleure que 1 cm en horizontal et 2 cm en vertical. Afin d’y parvenir, les algorithmes et le logiciel TRP du Département des sciences géomatiques ont été adaptés pour le traitement des données GNSS à un taux d’échantillonnage élevé (10 Hz) et en utilisant exclusivement les éphémérides transmises qui sont disponibles en temps réel. Les résultats obtenus ont été comparés à ceux de la solution PPK (cinématique relatif en post-traitement) et des solutions de comparaison provenant d’autres sources (graduations, mesures de jauges, …). Les écarts-types obtenus des différences entre la solution TRP et les solutions de comparaison varient entre 0.3 et 0.5 cm en horizontal, et entre 0.5 et 3.1 cm en vertical en utilisant seulement les mesures de phase sur L1 de la constellation GPS. Grâce à l’intégration des observations GLONASS, une amélioration à la précision verticale de plus de 30%, sur des sites obstrués, a permis d’atteindre une précision de 2.1 cm. / Time Relative Positioning (TRP) is a GNSS method that uses phase difference observations between two epochs from a single receiver to determine receiver displacement (or position change). The aim of this research project is to adapt the TRP method for structural health monitoring and wave measurements in order to detect displacements, over short time interval, with an accuracy better than 1 cm for the horizontal and 2 cm for the vertical components. The algorithms and TRP software developed at the Department of Geomatics Sciences at Laval University have been adapted to process GNSS data at high rate of 10 Hz using exclusively broadcast ephemeris that are available in real-time. TRP results were compared to the corresponding Post-Processed Kinematic (PPK) and other control solutions (graduations, gauge measurements, …). Using only GPS L1 frequency data, the standard deviation of the differences between TRP and these comparison solutions ranged from 0.3 to 0.5 cm for the horizontal component and from 0.5 to 3.1 cm for the vertical component. When GLONASS observables were added to the TRP-GPS-L1 solution, for environment where satellite visibility was limited, the standard deviation decreased by 30% to reach 2.1 cm for the vertical component.
|
163 |
Conception, montage et caractérisation d'un système optique afin de mesurer le temps de vie de fluorescence par la méthode de comptage de photon unique corrélé au tempsLive, Ludovic Saiveng 13 April 2018 (has links)
Ces dernières années, un besoin instrumental s'est développé au sein de notre laboratoire afin d'approfondir la caractérisation temporelle des propriétés photochimiques ainsi que photophysiques de divers systèmes fluorescents (fluorophores, structures inorganiques marquées, sondes d'ADN, structures micellaires, etc.). A partir de la mesure du temps d'émission de fluorescence, il est possible d'effectuer l'étude de la dynamique de relaxation d'un fluorophore lors de différentes circonstances (inhibition de la fluorescence, relaxation avec le solvant, anisotropie, FRET, etc.) sur une période oscillant entre quelques nanosecondes jusqu'à quelques picosecondes. Parmi les techniques disponibles pour effectuer de telles mesures, deux ont été sélectionnées et implantées dans notre laboratoire, soit la fluorimetrie de phase et de modulation dans le domaine frequentici ainsi que la fluorimetrie impulsionnelle dans le domaine temporel. Cet ouvrage porte uniquement sur la fluorimetrie impulsionnelle, dont la principale méthode est le comptage de photon unique corrélé au temps (Time-Correlated Single Photon Couniing, TCSPC). En somme, nous avons conçu un système TCSPC en géométrie confocale à partir d'une diode laser émettant à 405 nm et d'une photodiode avalanche à comptage de photons que nous avons caractérisée temporellement à l'aide de fluorophores organiques couramment utilisés (coumarin 153, érythrosine B, fluorescéine, rhodamine B, lucifer yellow). Certaines études sur des échantillons plus complexes (micelles inverses, nanoparticules de silice avec un coeur d'argent) ont aussi été entamées.
|
164 |
Flow field measurements in a stator of a hydraulic turbineQian, Ruixia 13 April 2018 (has links)
Des écoulements instationnaires au niveau du distributeur des turbines à réaction ont été expérimentalement étudiés dans ce projet doctoral. Le but est de développer une expertise intégrée pour mesurer des écoulements instationnaires au niveau des distributeurs des turbines à réaction en utilisant une vélocimétrie par image de particules (PIV) et d'autres techniques de mesure. Les expériences ont été effectuées en deux phases appelées configuration 1 et configuration 2. La configuration 1 est composée d'une directrice, installée dans un canal bidimensionnel d'eau, examinée aux nombres de Reynolds comparable à ceux dans les modèles standards de turbines Francis. La configuration 2 consiste en un distributeur d'un modèle réduit d'une turbine Francis. Dans la configuration 1, les champs d'écoulement ont été mesurés avec un PIV autour d'une directrice asymétrique dans un canal d'eau, à différents angles d'attaque entre 0° et 20°. Les données obtenues comprennent les champs de vitesse instantanée et moyenne. Pour les mêmes conditions, les pertes de charge dues à la directrice ont été mesurées et comparées. Dans la configuration 2, les champs d'écoulement entre deux directrices voisines ont été mesurés avec le PIV au travers d'un accès optique spécifique. Des résultats instantanés tels que les champs de vitesse et les résultats moyens tels que la fluctuation de vitesse et les iso-contours de vitesse ont été présentés. La distribution de pression du côté intrados et du côté extrados de deux directrices voisines a été mesurée avec des capteurs de pression miniatures montés sur les surfaces des directrices. 'Basé sur les mesures, les effets des points d'opération sur le comportement des écoulements sont analysés.
|
165 |
Utilisation d'avis d'experts en actuariatPigeon, Mathieu 13 April 2018 (has links)
Le présent mémoire a pour but de présenter deux techniques permettant l'obtention d'une estimation de la distribution d'une variable aléatoire lorsque les données historiques sont inexistantes ou confidentielles. Les modèles proposés se basent sur la consultation de plusieurs spécialistes du domaine dont les avis sont combinés afin d'obtenir une estimation de la distribution inconnue. Dans les deux cas, la distribution finale est le résultat d'un processus mathématique d'évaluation des experts réalisé à l'aide de variables de calibration. Le premier modèle utilise des techniques statistiques classiques alors que le second fait appel à la règle de Bayes. Le mémoire propose également une mise en oeuvre informatique des modèles ainsi que des exemples commentés.
|
166 |
Sécurité alimentaire dans les pays en développement et émergents : une analyse des effets des politiquesTohon, Bignon Aurelas 02 February 2024 (has links)
L'objectif de cette thèse est d'explorer l'impact des politiques commerciales et de soutien à l'agriculture sur la sécurité alimentaire. Elle s'intéresse plus particulièrement aux pays en développement et émergents en tenant compte de l'importance du secteur agricole dans ces pays. Les politiques commerciales et de soutien à l'agriculture y sont généralement très variées et cette variété pourrait se traduire en des résultats en termes de sécurité alimentaire. Nous voulons savoir si et dans quelle mesure la variabilité temporelle des politiques sus-indiquées affecterait les disponibilités alimentaires ou la dépendance aux importations alimentaires. Pour cela, nous utilisons la littérature théorique et empirique et, testons les modèles d'analyse empirique. Dans le chapitre 1, nous passons en revue le concept de sécurité alimentaire et ses instruments de mesure. Si plusieurs définitions sont proposées pour la sécurité alimentaire, l'idée dans ce chapitre est d'identifier les instruments simples sur lesquels l'action politique nationale et internationale pourrait se concentrer pour la fixation d'objectifs en termes de sécurité alimentaire dans les pays en développement. Notre analyse suggère une pluralité d'instruments, évoluant selon les angles ou dimensions d'analyse de la sécurité alimentaire. Parmi eux, nous distinguons les mesures des disponibilités alimentaires ou encore, celles de dépendance aux importations de produits alimentaires que nous empruntons comme mesures ou indicateurs de sécurité alimentaire dans le cadre de ce travail. Dans le chapitre 2, nous avons fait une revue de la littérature sur, d'une part, la relation entre les politiques commerciales et les dimensions de la sécurité alimentaire, d'autre part, entre les mesures de soutien à l'agriculture et les dimensions et/ou indicateurs de la sécurité alimentaire. Si dans le premier cas, nous avons conclu à l'importance de la production agricole dans l'analyse d'une telle relation, nous avons constaté, dans le second cas, qu'étant donné la variété des mesures de soutien à l'agriculture, la complexité dans le calcul d'un indicateur unique de soutien à l'agriculture et, le classement qui est fait des mesures en ce qui concerne des distorsions qu'elles pourraient créer, leur effet sur la sécurité alimentaire serait variable. Ces différents développements ont permis de proposer différents canaux par lesquels ces deux types de politiques affecteraient la sécurité alimentaire. Dans le chapitre 3, nous avons testé empiriquement, sur la base d'une approche de modélisation en plusieurs étapes, l'impact du dégré d'ouverture commerciale sur les disponibilités alimentaires. Nos résultats révèlent que l'ouverture commerciale et la production ont un effet positif sur ces dernières. Cependant, l'effet de l'interaction entre ces deux variables est non significatif. Si nos résultats confirment également l'importance des facteurs de production agricole, des niveaux de production des autres secteurs de l'économie et, de la volatilité des prix aux producteurs dans les résultats de production agricole, ils révèlent également, outre les facteurs traditionnels, le rôle des libertés économiques dans les décisions d'ouverture commerciale. Enfin, dans le chapitre 4, nous avons testé empiriquement, en utilisant un modèle de traitement continu et l'estimation d'une fonction dose-réponse avec endogénéïté, l'impact des mesures de soutien à l'agriculture sur la dépendance aux importations alimentaires des pays en développement et émergents. Nos résultats suggèrent des effets variables qui dépendraient de l'intensité de soutien à l'agriculture. Nos résultats confirment aussi le rôle des dépenses de consommation, de la taille de la population et des niveaux de production agricole dans les importations de produits alimentaires au profit de ces pays. / The objective of this thesis is to explore the impact of trade and agricultural support policies on food security. It focuses on developing and emerging countries, taking into account the importance of the agricultural sector in these countries. Trade and agricultural support policies in these countries tend to be quite varied and this variety could translate into food security outcomes. We are interested in whether and to what extent the temporal variability of the above policies would affect food availability or food import dependence. To do so, we use theoretical and empirical literature and test models of empirical analysis. In Chapter 1, we review the concept of food security and its measurement tools. While several definitions of food security are proposed, the idea in this chapter is to identify simple instruments on which national and international policy action could focus for setting food security objectives in developing countries. Our analysis suggests a plurality of instruments, evolving according to the angles or dimensions of analysis of food security. Among them, we distinguish between measures of food availability and measures of dependence on food imports, which we use as measures or indicators of food security in this work. In Chapter 2, we reviewed the literature on the relationship between trade policies and the dimensions of food security on the one hand, and between agricultural support measures and the dimensions and/or indicators of food security on the other. While in the first case we concluded that agricultural production is important in the analysis of such a relationship, in the second case we found that, given the variety of agricultural support measures, the complexity of calculating a single agricultural support indicator and the classification of measures with regard to the distortions they could create, their effect on food security would vary. These different developments have made it possible to propose different channels through which these two types of policies would affect food security. In Chapter 3, we empirically tested the impact of trade openness on food availability using a multi-stage modeling approach. Our results show that trade openness and production have a positive effect on food availability. However, the effect of the interaction between these two variables is not significant. While our results also confirm the importance of agricultural inputs, output levels in other sectors of the economy, and producer price volatility in agricultural production outcomes, they also reveal, in addition to traditional factors, the role of economic freedoms in trade openness decisions. Finally, in Chapter 4, we empirically tested the impact of agricultural support measures on food import dependence in developing and emerging countries using a continuous treatment model and the estimation of a dose-response function with endogeneity. Our results suggest variable effects depending on the intensity of agricultural support. Our results also confirm the role of consumer spending, population size and agricultural production levels in food imports to these countries.
|
167 |
Simulation numérique du transport spatial et temporel des concentrations de CO₂ et de CH₄ atmosphériques et comparaisons avec les observationsSouley, Falama 17 April 2018 (has links)
L'effet de la pollution atmosphérique se fait de plus en plus ressentir de nos jours. Plusieurs études font valoir la nécessité de développer des techniques de mesures et de simulations pour la surveillance continue de son évolution dans l'atmosphère. La modélisation numérique est de plus en plus utilisée pour estimer la dispersion des nuages de polluants dans le temps et dans l'espace. Elle présente a priori des avantages certains par rapport aux techniques physiques que sont les essais in situ ou à échelle réduite. La présente étude consiste en une modélisation inverse des concentrations de CO₂ obtenues à l'été 2007 par la mesure en continu sur le site de Lethbridge, Alberta (Fluxnet Canada). Cette première étape dite de "calage de modèle" a permis ainsi d'optimiser les paramètres d'entrée du modèle de chimie-transport. Il a ainsi été possible de s'assurer de la qualité et de la reproductibilité des simulations par rapport aux observations. L'écart relatif maximal (de l'ordre de 12,3 %) entre simulations et observations sur le site (mai-août 2007) démontrent la bonne qualité des données d'entrée du modèle. Nos résultats ont montré également la grande influence des vents sur ce site dans la dispersion atmosphérique des polluants. Les vents de l'ordre de 44 km/h dispersent les polluants (ici le CO₂), tandis que ceux de l'ordre de 7 km/h favorisent l'accumulation des polluants sur le site de mesure. Dans une seconde étape, les concentrations de CO₂ et de CH₄ mesurées sur le champ expérimental de culture de l'Université Laval au cours de l'été 2005, grâce au dispositif conçu au LP AM (Laboratoire de physique atomique et moléculaire, Département de physique de génie physique et d'optique, Université Laval), ont été calculées grâce à nos codes (TRANSCHIM). Une erreur relative maximale de ~7 % pour le CH₄ et de ~2 % pour le CO₂ ont été observées entre les mesures et les simulations. Une fois de plus la grande influence du vent sur la dispersion atmosphérique des polluants a été mise en évidence. Les indicateurs statistiques, choisis pour déterminer la qualité des résultats dans cette deuxième étape, ont été généralement meilleurs malgré certaines données qui semblaient parfois physiquement irréalistes. Néanmoins le but de jeter les jalons d'une recherche combinée de mesures expérimentales et de simulations numériques conduisant à des résultats convergents a été atteint.
|
168 |
Adaptation de la procédure SSFR aux exigences industriellesCouture, Philippe 08 June 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2017-2018 / La validité des modèles des générateurs est essentielle aux analyses de stabilité et de performance dynamique des réseaux électriques. Les producteurs d’énergie doivent fournir aux transporteurs d’électricité les paramètres électriques dynamiques du modèle de tous les générateurs mis en service après 1990. Les paramètres fournis doivent obligatoirement être validés par des mesures expérimentales. En Amérique du Nord, la procédure d’estimation des paramètres la plus acceptée est l’essai de courtcircuit brusque. Pour des cas de réfection, les risques élevés de bris peuvent devenir inacceptables. L’essai SSFR (« Standstill Frequency Response ») décrit dans la norme ANSI/IEEE Std 115-2009 comporte plusieurs avantages par rapport aux méthodes plus traditionnelles, notamment l’amélioration de la précision des modèles sur une bande passante plus large (> 200 Hz) et l’élimination des risques d’endommager le générateur. L’objectif du projet de recherche est de développer un système de mesure automatisé répondant à des contraintes industrielles afin d’assister la réalisation de l’essai SSFR sur de grands alternateurs hydrauliques. La solution proposée vise à maximiser la qualité des mesures tout en minimisant le nombre d’interventions manuelles et la complexité du montage expérimental. Le système a été utilisé pendant plus de deux mille heures afin de réaliser des essais de validation sur des générateurs de 5.4 kVA. Les essais ont permis de démontrer que le système est robuste et qu’il possède les spécifications requises pour effectuer des essais SSFR répondant aux exigences de la norme ANSI/IEEE Std 115- 2009. Les trois premiers chapitres du mémoire introduisent les bases théoriques liées à la modélisation dq0 d’un générateur synchrone, puis décrivent les principaux essais permettant l’identification des paramètres du modèle. La seconde partie du mémoire se concentre sur les divers aspects de conception du système de mesure automatisé. / Generator models validity is essential to analyze power grids stability and dynamic performance. Energy producers must provide power carriers with the model parameters of all generators commissioned after 1990. The parameters supplied must be validated by experimental measurements. In North America, the most accepted parameter estimation procedure is the short-circuit test. For repair cases, the high risk of damaging the alternator may become unacceptable. The SSFR (« Standstill Frequency Response ») test described in the ANSI / IEEE Std 115-2009 standard has several advantages over more traditional methods, namely an improvement of the models accuracy over a wider bandwidth (> 200 Hz) and the elimination of the risk of damaging the generator. The research project objective is to develop an automated measurement system meeting industrial constraints in order to assist the realization of the SSFR test on large hydraulic alternators. The proposed solution aims to maximize the quality of measurements while minimizing the number of manual interventions and the complexity of the experimental setup. The system has been used for more than two thousand hours to perform validation tests on 5.4 kVA generators. The tests demonstrated that the system is robust and has the required specifications to perform SSFR tests that meet the requirements of the ANSI / IEEE Std 115-2009 standard. The first three chapters of the thesis introduce the theoretical framework related to the dq0 modelisation of a synchronous generator, then describe the main tests allowing the identification of the model parameters. The second part of the thesis focuses on the various design considerations of the automated measurement system.
|
169 |
Auscultation topographique du pont Laviolette à Trois-RivièresCorbin, Maxime 16 January 2024 (has links)
Titre de l'écran-titre (visionné le 11 janvier 2024) / Avec les années, la taille des navires ne cesse d'augmenter. Ceci pose un problème pour la navigation marchande, car de nombreux obstacles peuvent limiter le passage de ces navires de plus grande taille. Lorsqu'un navire a pour destination le port de Montréal, le pont Laviolette est l'obstacle aérien principal à considérer. C'est dans ce contexte que l'Administration portuaire de Montréal (APM) a lancé le projet d'auscultation du pont Laviolette. Cette auscultation a pour but d'analyser la variation du dégagement vertical dynamique sous le pont sur une période d'un an. Pour y parvenir, quatre antennes GNSS, un distancemètre laser, un distancemètre radar et une station météorologique ont été installés sur le pont. Ces instruments ont permis de quantifier les mouvements du pont en fonction de facteurs tels le vent, la température et la circulation automobile ainsi que leur incidence sur le dégagement vertical dynamique. Les résultats démontrent que la différence de température entre l'hiver et l'été cause des variations altimétriques atteignant 6 cm au sommet du pont et 3 cm au niveau de la chaussée du pont. C'est toutefois le niveau d'eau du fleuve Saint-Laurent qui est le facteur ayant le plus d'influence. Le fleuve varie d'environ 3 m entre la crue des eaux et son niveau le plus bas. Deux modèles indépendants du dégagement vertical dynamique ont été comparés. Le premier considère que le pont a une hauteur fixe et fait uniquement varier le niveau du fleuve. Le deuxième utilise les mesures du distancemètre radar installé sous le pont ce qui donne des dégagements qui tiennent aussi compte des mouvements du pont. En général, l'écart entre les deux modèles est de quelques cm et cet écart varie légèrement en fonction des saisons. En appliquant une correction thermique au premier modèle, l'écart entre les deux techniques est réduit de 1,6 cm. / As time goes on, the size of vessels keeps increasing. This causes a problem for the merchant navy, as many obstacles can limit the passage of these larger vessels. When a ship sets sail for the Port of Montreal, the Laviolette Bridge is the main aerial obstacle. It is why the Montreal Port Authority launched the Laviolette Bridge monitoring project. The purpose of this monitoring is to analyze the variation of the dynamic vertical clearance under the bridge over a period of one year. To achieve this, four GNSS antennas, a laser range finder, a radar range finder and a weather station were installed on the bridge. These instruments helped to quantify the bridge's movement according to factors such as wind, temperature and traffic, as well as their impact on the dynamic vertical clearance. The results show that the temperature difference between winter and summer causes altimetric variations reaching 6 cm at the top of the bridge and 3 cm at the deck level. The water level of the St. Lawrence River is by far the most influential factor. The water level can vary up to approximately 3 m due to seasonal fluctuations. Two independent vertical clearance models were compared. The first one considers that the bridge has a fixed height and that only the water level varies. The second model uses the radar range finder installed under the bridge, which measures vertical clearances that also take into account the movements of the bridge. In general, the two models agree within a few cm and this difference slightly varies according to the seasons. By applying a thermal correction to the first model, the gap between the two models is reduced by 1.6 cm.
|
170 |
Validation de mesures d'amplitude d'élévation et d'activité musculaire à l'aide de capteurs sans fil pour l'analyse de mouvements fonctionnels à l'épaulePoitras, Isabelle 06 September 2019 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2019-2020 / L’utilisation de données quantitatives afin de diminuer la prévalence des blessures musculosquelettiques liées au travail est souhaitée et le développement de systèmes portables permettant de mesurer l’amplitude articulaire (capteurs inertiels; IMU) et l’activité musculaire (électromyographie; EMG) pourrait permettre d’obtenir ce type de données. La revue systématique de la littérature sur la validité des capteurs inertiels effectuée dans le cadre de ce mémoire a permis d’identifier un manque d’évidence scientifique pour l’évaluation des mouvements complexes à l’épaule. L’objectif principal de ce mémoire est donc (1) d’évaluer la validité concourante d’IMU (Xsens) dans le calcul d’élévation du bras comparé à un système de capture de mouvements (Vicon) lors de mouvements simples et lors de tâches de manutention; et (2) d’établir la validité discriminante du système d’EMG (Trigno) pour évaluer l’activité musculaire. Méthodologie : Seize sujets ont participé à une séance d’évaluation demandant la réalisation de mouvements simples à l’épaule et de transport de charges (poids et hauteurs de transport variables). Le coefficient de corrélation et l’erreur de mesure (RMSE) ont été calculés afin de comparer les mesures d’amplitude articulaire obtenues à l’aide du Xsens et du Vicon et le root mean square (RMS) ainsi que le pic d’activité musculaire des deltoïdes (antérieurs et moyens) ont été calculés pour déterminer l’effet du poids et de la hauteur (ANOVA à mesures répétées). Résultats : Les coefficients de corrélation entre les amplitudes articulaires obtenues par le Xsens et le Vicon sont élevés (>0,84) et les RMSE sont bas (<11,5°). Un effet significatif du poids et de la hauteur, et un effet d’interaction poids x hauteur ont été observés pour le RMS du deltoïde antérieur (p<0,001) et moyen (p<0,03) et pour le pic d’activité du deltoïde antérieur (p<0,003). Conclusion : L’utilisation combinée du Xsens et du Trigno est un outil intéressant afin d’identifier le niveau de demande de l’emploi, puisqu’ils recueillent des données valides d’amplitude articulaire et d’activité musculaire. / Quantitative assessments of workplace settings are required to diminish the prevalence of work-related shoulder disorders. Recent development of wearable sensors to record muscle activity (electromyography [EMG]; Trigno, Delsys) as well as shoulder range of motion (inertial measurement unit; MVN, Xsens) could potentially be used for such workplace assessments. A systematic review on the validity and reliability of IMUs performed within this thesis identified a knowledge gap for shoulder joint movements during complex tasks. The primary objective of this thesis was therefore (1) to assess the concurrent validity of the Xsens system for assessment of shoulder range of motion compared to a motion capture system (Vicon) during simple movements and working tasks and (2) to establish the discriminative validity of the Trigno EMG system for the evaluation of muscle activity. Methodology: Sixteen subjects participated in one session in which they performed simple movements and work lifting tasks (different weights and lifting heights). The correlation coefficient (r) and the root mean square error (RMSE) were used to compare the data collected by the Xsens and the Vicon. The root mean square EMG envelope (RMS) and the peak EMG activity of anterior and middle deltoids were used to establish the effect of weight and height (repeated measure ANOVA). Results: The correlation coefficient between joint angles measured with the Xsens and the Vicon was high (>0.84) and the RMSE was low (<12.82°). A significant effect of weight, height and a weight x height interaction effect were observed for the RMS (anterior; p<0.001; middle: p<0.03) and the peak EMG activity (anterior; p<0.003). Conclusion: The combination of an inertial measurement unit system and a wireless EMG is a potentially useful tool to assess physical demand in real work context as it provides valid data on muscular activity and range of motion.
|
Page generated in 0.0357 seconds