1601 |
Automatic segmentation of the bony structure of the shoulderNguyen, Nhat Tan 11 April 2018 (has links)
Plusieurs problèmes dans le placement d'endoprothèses sont dus à une compréhension pré-opératoire limitée de l'état du patient. La plupart des patients souffrent de l'arthrite rhumatoïde, ce qui affect la qualité et la forme de l'os en question: souvent la cavité glénoïde de l'omoplate s'est rétractée. Le plan de l'opération doit être planifiée à l'aide d'images Roentgen 2-D. Pendant la chirurgie, l'espace de travail de l'opération est très limité, seule la surface articulaire du scapula est exposée. Le patient est placé sur le côté, avec l'épaule endommagé pointant vers le haut, ce qui entraine un glissement vers le bas de l'omoplate. Pendant la chirurgie, la technique la plus souvent utilisée implique l'enlèvement du cartilage restant, le moulage de la forme de l'endoprothèse dans l'os trabeculaire, l'application d'une certaine quantité de ciment d'os, le placement de l'endoprothèse et l'insertion de vis pour une fixation préliminaire. D'autres préfèrent approcher l'espace d'opération du côté arrière du patient en fendant le scapula en deux. La technique préférée est de supporter l'endoprothèse sur l'os corticale et d'essayer de rétablir une position et une orientation fonctionnelles. Une prothèse faite sur mesure est donc nécessaire en plus d'une bonne vue de l'omoplate. La segmentation automatique des structures osseuses dans les bases de données agiographiques IRM est une étape préliminaire essentielle pour la plupart des tâches de visualisation et d'analyse. Afin d'obtenir une meilleure compréhension de l'épaule en santé et de l'épaule arthrosique pathologique, ce projet développera une méthode pour la segmentation des structures de l'épaule à partir de bases de données de l'IRM. Le développement de techniques convenables pour la segmentation du scapula et de l'humérus dans une base de données bidimensionnelle de l'IRM constitue une partie majeure de ce projet. Actuellement nous nous penchons sur des techniques de segmentation basées sur les contours, c'est-à-dire un point de l'os est défini d'abord. Les contours de l'os sont extraits dans une deuxième étape. / Image segmentation is an important area in the general field of image processing and computer vision. It is a fundamental part of the 'low level' aspects of computer vision and has many practical applications such as in medical imaging, industrial automation and satellite imagery. Traditional methods for image segmentation have approached the problem either from localization in class space using region information, or from localization in position, using edge or boundary information. More recently, however, attempts have been made to combine both region and boundary information in order to overcome the inherent limitations of using either approach alone. The shoulder has the widest range of motion than any joint in the body. Normally, shoulder stability is maintained through complex interaction between static and dynamic stabilizing mechanisms, including the bony glenoid, the labrum, the glenohumeral ligaments and joint capsule, and the muscles and tendons of the rotator cuff. Due to the complicated mechanisms involved in glenohumeral stability, a clinical evaluation can be very challenging. The primary motivation behind this research is to improve the accurate clinical evaluation of shoulder pathology. In this thesis, a new approach to image segmentation is presented that integrates region and boundary information. Our ultimate goal is to develop a framework for integrating boundary finding and region-based segmentation. This would lead to a System where the two modules would operate respectively so that at each step the outputs of each module get updated using information from the outputs of both the modules from the previous iteration. The main objective we present in this thesis is aimed at using the results of boundary detection to assist region-based segmentation. Unlike most of other existing methods, it integrates boundary-based segmentation with region growing rather than edge detection, thereby making it resistant to the problems of false and broken edges while at the same time having well localized boundaries. This method is successful in segmenting the set of slices of MR images of the shoulder. The experiments show that the results given by the method archive 96.32% correspondence to results given by a specialist does segment manually.
|
1602 |
Nettoyage d'une carte de primitives par appariement et relaxationFiliatrault, Alexandre 12 April 2018 (has links)
Ce mémoire présente une étape intermédiaire de traitement dans le but d'isoler les objets principaux d'une scène. Les calculs sont effectués à partir de la sortie du logiciel Magno, qui a pour but de segmenter une image numérique en segments de droites et en arcs de cercles. L'objectif du projet est de nettoyer la carte de primitives ; garder celles qui sont disposées à former un objet multi-parties et rejeter celles qui vraisemblablement représentent l'arrière-scène. L'approche retenue implique un appariement de toutes les paires de primitives possibles et y ajoute une phase de relaxation pour stabiliser les résultats.
|
1603 |
Rehaussement des primitives de contours à l'aide d'une segmentation multi-échelle en arbre quaternaireBergeron, Vincent 13 April 2018 (has links)
Ce mémoire présente une approche permettant de rehausser la silhouette d'un objet multie-parties dans une image. L'entrée est une carte de CCPs (Constant Curvature Primitives) provenant d'une segmentation de l'image originale par le logiciel MAGNO. Ces CCPs sont en fait des arcs de cercle et des segments de droite. L'objectif est de rehausser la silhouette de l'objet, c'est-à-dire de conserver les CCPs se trouvant sur la silhouette de l'objet et d'éliminer les autres. L'approche retenue est d'utiliser l'image originale (avant la segmentation par le logiciel MAGNO) et de la diviser en utilisant l'algorithme de l'arbre quaternaire. Une fois l'image divisée en carrés, ces derniers sont superposés à la carte de CCPs et cinq critères permettent à la fois d'éliminer et de donner un poids à chacun des CCPs. Les CCPs ayant les plus grands poids sont plus susceptibles de se trouver sur la silhouette de l'objet
|
1604 |
Implantation d'un algorithme de reconstruction itératif 4D en tomodensitométrie à faisceau coniqueMascolo-Fortin, Julia 10 July 2024 (has links)
La tomodensitométrie avec faisceau conique (CBCT) est actuellement utilisée en radiothérapie externe pour visualiser le patient dans la salle de traitement. Le mouvement respiratoire des patients y est encore difficilement pris en compte et des avancées sur le sujet pourraient améliorer la précision des traitements. En ce sens, l’obtention d’une séquence imageant les mouvements dans la région d’intérêt serait souhaitable. Ce mémoire présente le développement d’un algorithme de reconstruction 4D pour CBCT qui tente de répondre à certains besoins cliniques, soit l’obtention d’une qualité d’image suffisante, une facilité de mise en place clinique et une rapidité de calcul. L’algorithme 4D développé se base sur l’algorithme itératif convexe avec sous-ensembles ordonnés et régularisation de variation totale. Cette méthode a été choisie pour sa rapidité d’exécution, procurée par l’utilisation de sous-ensembles et la parallélisation des calculs sur carte graphique, et pour sa capacité à diminuer les artéfacts de rayons, communs en imagerie 4D, procurée par la régularisation de variation totale. La méthode développée pour obtenir une image 4D à partir d’acquisitions CBCT standards a fait appel à l’algorithme Amsterdam Shroud pour déduire le mouvement respiratoire de l’ensemble de projections CBCT. Elle a été validée sur un fantôme numérique et sur des acquisitions cliniques. Les résultats obtenus démontrent le potentiel de l’algorithme, puisqu’une image de résolution spatiale et temporelle satisfaisante a été reconstruite en moins de 5 minutes. Un tel temps de calcul se compare avantageusement à d’autres méthodes disponibles et ouvre la porte à une visualisation rapide du mouvement respiratoire en salle de traitement. / Cone beam computed tomography (CBCT) is currently used to visualize patients directly in the treatment room. However, the respiratory movement is still hardly taken into account and new developments could improve the precision of treatment. To this end, obtaining a film imaging movements in the region of interest would be beneficial. This master’s thesis presents the development of a reconstruction algorithm for 4D CBCT which seeks to respond to particular clinical needs, namely sufficient image quality, clinical implementation simplicity and high computational speed. The developed 4D algorithm is based on the ordered subsets convex iterative algorithm combined with the total variation minimization regularization technique. This method was chosen for its fast execution time, enabled by the use of subsets and the parallelization on GPU, and for its capability to reduce streaking artifacts, common on 4D imaging, enabled by the total variation regularization. The method developed to reconstruct a 4D image from standard CBCT scans employed the Amsterdam Shroud algorithm to deduce respiratory movement of a CBCT projections’ set. Its validation was performed on a numerical phantom and on clinical datasets. Results demonstrate the potential of the algorithm, since an image with sufficient spatial and temporal resolution was reconstructed in less than 5 minutes. Such computational times can be compared favorably with other available methods and could allow for online applications.
|
1605 |
Comportement physique, chimique et mécanique du bois suite à la compression sous l'effet de la chaleur et de l'humiditéFu, Qilan 30 April 2024 (has links)
L'objectif principal de cette recherche est d'établir une meilleure compréhension du procédé de densification thermo-hygromécanique (THM) et du comportement physique, chimique et mécanique du bois dans des conditions thermiques et hygrométriques diverses. La densification THM est un procédé complexe impliquant simultanément, les phénomènes couplés de transfert de chaleur et de masse, plusieurs mécanismes de déformation instantanée et dépendante du temps ainsi que des changements physiques, chimiques et mécaniques dans le bois. Malgré de nombreuses recherches au cours des dernières décennies, les mécanismes fondamentaux du comportement en compression du bois soumis à une charge et à une variation de sa teneur en humidité demeurent en grande partie méconnus. La densification et la relaxation des contraintes sont deux phénomènes très complexes en raison de la nature des déformations réversibles et permanentes qui se produisent simultanément à diverses étapes du procédé de pressage. De plus, les déformations sont affectées par de nombreux facteurs physiques et le comportement de compression à son tour affecte l'ensemble du système physique. Dans cette étude, le procédé de densification THM a été optimisé en utilisant la méthode des surfaces de réponse (RSM) pour étudier les effets de la température et de la durée du traitement sur la dureté et le retour viscoélastique en épaisseur et analyser les interactions entre ces paramètres physiques. Plusieurs propriétés physiques et mécaniques, telles que le profil de densité, le retour viscoélastique en épaisseur, la dureté et la résistance à la flexion des échantillons témoins et du bois densifié THM ont été évaluées et comparées. Les modifications chimiques de surface des échantillons densifiés ont été examinées en utilisant la spectroscopie infrarouge par transformée de Fourier (FTIR), la spectroscopie photoélectronique X (XPS) et la pyrolyse-chromatographie en phase gazeuse-spectrométrie de masse (Py-GC/MS). Par ailleurs, les évolutions de la masse volumique anhydre, la perméabilité et la conductivité thermique pendant le procédé de densification THM ont été déterminées expérimentalement. Les résultats suggèrent que les conditions de densification optimales résultant en une dureté élevée et un faible retour viscoélastique en épaisseur ont été obtenues à une température de 180 °C, un temps de densification de 1004 s et un temps de post-traitement de 1445 s. La densité des échantillons densifiés a considérablement augmenté par rapport à l'échantillon témoin. La vapeur et la température ont des impacts importants sur les propriétés mécaniques, chimiques et la stabilité dimensionnelle du bois d'érable à sucre. Un pourcentage plus élevé de perte de masse a été trouvé à 220 °C, résultant en une diminution évidente de la masse volumique et de la dureté du bois, alors qu’un léger retour viscoélastique en épaisseur a été observé pour l'érable à sucre densifié à la même température. De plus, la haute température et la vapeur sont bénéfiques pour fixer la déformation de compression. La vapeur pourrait faciliter la dégradation avancée des polymères du bois. Le traitement de densification THM a entraîné des modifications chimiques importantes de la surface du bois. Les résultats des spectres ATR-FTIR ont confirmé la décomposition des hémicelluloses et l’augmentation de la teneur relative en cellulose et lignine de la surface du bois. Les résultats du Py-GC/MS et du XPS en terme d'augmentation du rapport O/C indiquent que des substances chimiques contenant une fonctionnalité oxygénée se sont formées après densification. Le traitement de densification a favorisé la dépolymérisation des hémicelluloses et de la cellulose, ce qui a entraîné une augmentation de la teneur en sucres anhydres (lévoglucosane) de la surface du bois. La densification a également facilité le clivage de la chaîne latérale de la lignine, ce qui a entraîné une augmentation de la teneur en unités phényle avec chaînes courtes. La masse volumique anhydre n'a pas augmenté avec la diminution de l'épaisseur. La perméabilité au gaz de l'échantillon témoin peut être 5 à 40 fois plus élevée que celle du bois densifié, ce qui indique que le volume des vides du bois diminue considérablement après le traitement de densification. La conductivité thermique augmente avec l'augmentation de la teneur en humidité de 0,5 à 1,5% par pourcentage d'augmentation de la teneur en humidité pour le bois densifié. La conductivité thermique des échantillons densifiés était plus petite que celle des échantillons de contrôle. / The main purpose of this research is to establish a better understanding of the thermo-hygromechanical (THM) densification process and physical, mechanical and chemical behavior of wood under diverse temperature and humidity conditions. THM densification is a complicated process involving simultaneous, coupled heat and mass transfer phenomena, several instantaneous and time-dependent deformation mechanisms as well as some physical, mechanical and chemical changes in wood. Despite numerous researches in the past decades, the basic mechanisms of compressive behavior of wood subjected to load and moisture variation are not completly understood. Wood densification and stress relaxation are very complicated, because both recoverable and permanent deformations occur at various stages of the pressing process. Moreover, deformations are affected by many physical factors, and the compressive behavior in turn affects the entire physical system. In this study, the THM densification process was optimized using response surface methods (RSM) to investigate the effects of temperature and treatment duration on hardness and compression set recovery (CSR) and further to analyze the interactions between these physical parameters. Several physical and mechanical properties such as density profile, compression set recovery, hardness and bending strength of control and THM densified wood were evaluated and compared. The surface chemical changes of densified samples were examined using Fourier transform infrared spectroscopy (FTIR), X-ray photoelectron spectroscopy (XPS) and Pyrolysis gas chromatography-mass spectrometry (Py-GC/MS), respectively. In addition, evolutions of oven-dry average density, permeability and thermal conductivity during the THM densification process were experimentally determined. The results suggested that the optimum densification conditions resulting in high hardness and low compression set recovery were obtained at a temperature of 180 °C, a densification time of 1004 s, and a post-treatment time of 1445 s. The density of the densified samples was dramatically increased compared to the control sample. Both steam and temperature have important impacts on mechanical, chemical properties and dimensional stability of sugar maple wood. A higher percentage of weight loss occurred at 220 °C, resulting in an important decrease in the density and hardness of wood. However, almost no compression set recovery was observed for the sugar maple wood densified at 220 °C. In addition, high temperature and steam are helpful to fix the compressive deformation. Steam could facilitate the advanced degradation of wood polymers. THM densification treatment resulted in significant chemical changes on the wood surface. The results of the ATR-FTIR spectra confirmed the decomposition of hemicelluloses and the relative content of cellulose and lignin on wood surface increased. The Py-GC/MS and XPS results in term of the O/C ratio increase indicated that chemical substances containing oxygenated functionality were formed after densification. Densification treatment favored the depolymerization of hemicelluloses and cellulose resulting in the content of anhydrous sugars (levoglucosan) increased on wood surface. Densification also facilitated the cleavage of lignin side chains, resulting in the increase of the content of phenyl units with short chains. The oven-dry density did not exactly increase with the decrease of its thickness, the permeability of the control sample could be 5 to 40 times higher than that of densified wood, which indicated that the voids of wood reduced notably after densification treatment. The thermal conductivity increased by 0.5 - 1.5 percent increase of one percent moisture content for densified sugar maple wood. The thermal conductivity of densified samples was lower than that of the control samples.
|
1606 |
Effets de l'administration de tétrahydrobioptérine en conditions physiologique et pathologiques : de la neurobiologie au comportementFanet, Hortense 05 April 2024 (has links)
"Thèse en cotutelle, Doctorat en sciences pharmaceutiques; Université Laval, Québec, Philosophiæ doctor (Ph. D.), Canada et Université de Bordeaux, Talence, France." / La tétrahydrobioptérine (BH4) est le cofacteur requis pour l'activité des enzymes responsables de la synthèse de la dopamine, la sérotonine et l'oxyde nitrique. Par conséquent, la BH4 est nécessaire au bon déroulement de nombreux processus physiologiques centraux et périphériques dont la neurotransmission, la réponse inflammatoire, la régulation du stress oxydatif, la fonction vasculaire et endothéliale et le métabolisme. Or la BH4 peut facilement être oxydée et dégradée. Ainsi des diminutions des niveaux centraux de BH4 ont été observées dans de nombreuses maladies neuropsychiatriques à composante inflammatoire dont la maladie d'Alzheimer et la dépression majeure. La diminution des niveaux de BH4 dans ces pathologies pourrait participer à la survenue de symptômes et à l'aggravation de ceux-ci. Malgré ces observations, les effets d'une administration de BH4 sur la fonction cérébrale en condition physiologique et pathologique et les comportements en s'y rapportant restent largement inexplorés. L'objectif de cette thèse a été de caractériser les effets d'une administration de BH4 périphérique sur la neurobiologie et le comportement chez la souris. Nous nous sommes intéressés aux effets de BH4 sur le système dopaminergique mésolimbique et la motivation en condition physiologique et lors d'une inflammation aiguë. Puis, dans un second temps, nous avons exploré le potentiel thérapeutique de la BH4 dans le traitement de la maladie d'Alzheimer. Nous avons tout d'abord démontré que la BH4 traversait la barrière hémato-encéphalique et qu'une injection périphérique permettait d'augmenter les niveaux centraux de BH4. Nos travaux ont montré qu'en condition physiologique, l'administration de BH4 potentialise la libération de dopamine stimulée dans le nucleus accumbens et les comportements motivés. En condition de neuroinflammation aiguë induite par le LPS, l'administration de BH4 permet d'atténuer la neuroinflammation. Par conséquent, la BH4 pourrait avoir des effets bénéfiques dans le traitement des troubles motivationnels induits par l'inflammation. Dans notre deuxième étude, nous avons démontré que l'administration chronique de BH4 permet de corriger les déficits mnésiques observés dans le modèle murin triple transgénique de la maladie d'Alzheimer. Le traitement en BH4 induit également une diminution d'un marqueur inflammatoire ainsi qu'une amélioration de la tolérance au glucose. Cependant, ces améliorations mnésiques, métaboliques et inflammatoires ne s'accompagnent pas d'une diminution des pathologies amyloïde et tau. L'ensemble de ces travaux a permis une meilleure caractérisation des effets neurobiologiques et comportementaux de la BH4 et renforce son potentiel thérapeutique. / Tetrahydrobiopterin (BH4) is the required cofactor for the activity of the enzymes involved in the synthesis of dopamine, serotonin and nitric oxide. BH4 is therefore necessary for many central and peripheral physiological processes including neurotransmission, inflammatory response, oxidative stress regulation, vascular and endothelial function, and metabolism. However, BH4 is prone to oxidation and degradation, and decreased BH4 brain level has been observed in many neuropsychiatric diseases including Alzheimer's disease and major depression. Consequently, the decrease in BH4 levels in these pathologies could contribute to the onset and aggravation of symptoms. Despite these observations, the effects of BH4 administration on brain function and related physiological and pathological behavior remain largely unexplored. The aim of this thesis was to characterize the effects of peripheral BH4 administration on brain function and related behaviors. We investigated the effects of BH4 on the mesolimbic dopaminergic system and motivation in physiological condition and during acute inflammation. Then, we explored the therapeutic potential of BH4 in the treatment of Alzheimer's disease. We first demonstrated that BH4 crossed the blood-brain barrier and that a peripheral injection of BH4 increased its cerebral levels. Under physiological condition, administration of BH4 potentiates dopamine release into the nucleus accumbens and motivated behaviors. In acute LPS-induced neuroinflammation, administration of BH4 reduced neuroinflammation. Therefore, BH4 may have beneficial effects on dopaminergic disorders induced by inflammation. In our second study, we demonstrated that chronic administration of BH4 reversed memory deficits observed in the transgenic triple murine model of Alzheimer's disease. We also observed a decrease in neuroinflammatory marker and an improvement in glucose tolerance. However, these memory, metabolic and inflammatory improvements were not accompanied by a decrease in amyloid and tau pathologies. This work contributes to a better characterization of the neurobiological and behavioral effects of the BH4 and reinforces its therapeutic potential.
|
1607 |
Traitement des effluents de fromageries fermières par biofiltrationMarin Uribe, Esteban 19 August 2024 (has links)
Au Québec, l’industrie laitière est un secteur important de l’économie provinciale. Au Canada, près de 60 % des unités de fabrication de fromage sont situées dans la province de Québec et plus de deux milliards de litres de lait sont transformés en fromage à chaque année. En 2015, le nombre de fermes laitières québécoises s’élevait à 5 766. En moyenne, une ferme possède un cheptel de 60 vaches et livre près de 500 000 litres de lait par année. De plus, la production d’une vache sur cinq devient du lait de consommation, qui est simplement homogénéisé et pasteurisé. Le reste est transformé principalement en fromage, crème, yogourt et beurre. Une production très importante de déchets issus de cette industrie a été mise en évidence dans certaines régions du Québec à cause de l’augmentation de la production de fromage. Ces déchets entraînent des problèmes de pollution de l’eau, comme l’eutrophisation des plans d’eau par de charges élevées de polluants organiques, de matière en suspension et de nutriments liés à ce type de rejets industriels. Une solution envisagée est de traiter les eaux usées avant de les épandre dans les sources d’eau afin d’en réduire la charge polluante. Une forme de traitement in-situ est d’installer, à la ferme, un système de traitement biologique des effluents de fromagerie. Pour ce faire, cette étude propose un système par biofiltration. L’objet de la présente étude consiste donc à évaluer la performance du traitement des effluents de fromageries fermières par l’utilisation d’un biofiltre. Plus spécifiquement, ce projet de maîtrise comprend le démarrage, le développement et l’opération d’un biofiltre pilote où le lactosérum (composante des déchets) est séparé des effluents de fromagerie, pour alimenter (affluent) le système de biofiltration. Un deuxième objectif est l’évaluation du procédé de traitement. Des performances épuratrices satisfaisantes en terme de réduction de la demande chimique en oxygène (DCO), des matières en suspension (MES) et de l’azote total (TN) ont été confirmées. L’enlèvement de la DCO total par le biofiltre pilote a varié entre 94 % et 99 %, pour les MES entre 97 % et 99 % et par rapport à l’azote total entre 70 % et 90 %. La biofiltration s’avère donc, une bonne technique présentant beaucoup de potentiel, simple et efficace pour traiter les effluents liquides des fromageries fermières. De plus, la mise en place du biofiltre pilote est facile et son fonctionnement est autonome sans besoin de l’assistance régulière d’un technicien. Mots-clés : Biofiltre, biofiltration, lactosérum, effluents de fromageries fermières / In Quebec, the dairy industry is an important sector of the provincial economy. In Canada, near to 60 % of cheese fabrication unities are located in the province of Quebec and more than two billions of liters of milk are converted into cheese every year. In 2015, the number of Quebec’s dairy farms rose the number of 5 766. On average, a farm has got a livestock of 60 cows and delivers around 500 000 liters of milk per year. Furthermore, a cow’s production over five becomes milk for consumption, which is simply homogenised and pasteurized. What is left is converted essentially into cheese, cream, yogurt and butter. A very important production of wastes coming from this industry has been put forward in some areas of Quebec, due to the rising cheese production. Those wastes carry water contamination problems, such as the eutrophication of water bodies by high loads of organic pollutants, suspended solids and nutriments linked to this kind of industrial waste. A considered solution is to treat wasted water before spreading them into water sources in order to reduce the contaminating loads. A form of treatment in-situ is to install, at the farm, a biological treatment system of cheese dairy effluents. To do this, the present study suggests a system by biofiltration. The purpose of this study is therefore to evaluate the performance of the treatment of effluents from cheese dairies by the use of a biofilter. More specifically, this master degree’s project involves the star-up, the development and the operation of a pilot biofilter where the whey (waste component) is separated from cheese dairy effluents to feed (affluent) the biofiltration system. A second objective is the treatment process evaluation. Satisfying removal performances were confirmed in terms of chemical oxygen demand (CDO), total suspended solids (TSS) and total nitrogen (TN). This biofilter is capable of operating with positive removal efficiencies of above 90 %. Biofiltration is therefore a good technique with a lot of potential, simple and effective to treat the liquid effluents of the cheese dairies. Moreover, the installation of the pilot biofilter is easy and its operation is autonomous without the need of the regular assistance of a technician. Key-words: biofilter, biofiltration, whey, cheese dairy effluents
|
1608 |
Adaptation et validation du questionnaire international de l'activité physique (IPAQ) chez les personnes saines et les survivants d'un accident vasculaire cérébral au BéninHonado, Sedonoude Aristide 28 March 2024 (has links)
La pratique de l’activité physique réduit considérablement le risque de survenue des accidents vasculaires cérébraux (AVC). Elle est aussi utilisée en tant que stratégie thérapeutique pour maximiser la récupération fonctionnelle pendant la réadaptation des survivants d’un AVC. Dès lors, il est important de suivre le niveau d’activité physique des personnes saines et des survivants d’un AVC. Le suivi du niveau d’activité physique dépend de la disponibilité d’outils valides et fiables pour la mesure et l’évaluation de l’activité physique. Malheureusement, le manque de pareils outils est observé au Bénin, un pays francophone de l’Afrique. Aussi dans les circonstances de pays à ressources financières limitées comme le Bénin, les questionnaires, méthodes subjectives de mesure de l’activité physique, sont les méthodes les plus utilisées en raison de leur faible coût et de leur facilité de mise en place. Le Questionnaire International de l’Activité Physique (IPAQ) est un outil fréquemment utilisé pour mesurer le niveau d’activité physique des sujets sains et de différents groupes de patients. Toutefois, ce questionnaire, à notre connaissance n’est pas validé dans le contexte de pays francophone d’Afrique comme le Bénin. Le but de ce mémoire de maîtrise était d’adapter et de valider IPAQ chez les personnes saines et les survivants d’un AVC au Bénin. En conséquence, nous avons procédé à l’adaptation du questionnaire IPAQ selon la culture et le français parlé au Bénin, en nous basant sur les méthodes reconnues. Ensuite, la validité convergente et la fidélité test-retest de la version expérimentale béninoise du questionnaire ont été examinées à partir d’un échantillon de 60 sujets sains et de 60 sujets post AVC recrutés au Bénin. Les résultats de l’étude démontrent une excellente validité convergente et une excellente fidélité test-retest de la version béninoise de IPAQ pour la mesure de l’activité physique des personnes saines et des survivants d’un AVC. / The practice of physical activity significantly reduces the risk of stroke. It is also used as a therapeutic strategy to maximize functional recovery during the rehabilitation of stroke survivors. Therefore, it is important to monitor the level of physical activity of healthy people and stroke survivors. Tracking the level of physical activity depends on the availability of valid and reliable tools for measuring and assessing physical activity. Unfortunately, the lack of such tools is observed in Benin, a French-speaking country in Africa. Also, in the circumstances of countries with limited financial resources such as Benin, questionnaires, subjective methods of measuring physical activity, are the most used methods because of their low cost and ease of implementation. The International Physical Activity Questionnaire (IPAQ) is a frequently tool used for measuring the level of physical activity of healthy subjects and different groups of patients. However, this questionnaire, to our knowledge, is not validated in the context of French-speaking African countries as in the context of Benin. The goal of this Master thesis was to adapt and validate IPAQ in healthy people and stroke survivors in Benin. Consequently, following well-established methods, we adapted the IPAQ according to the culture and specific linguistic aspects of French as spoken in Benin. Then, the convergent validity and test-retest reliability of the Beninese experimental version of the questionnaire were examined from a sample of 60 healthy subjects and 60 post-stroke subjects recruited in Benin. The results of the study show excellent convergent validity and excellent test-retest reliability of the Benin version of IPAQ for measuring the physical activity of healthy people and stroke survivors.
|
1609 |
Développement d'une technique numérique d'autocorrélation d'intensité pour la recherche de minilentilles gravitationnelles dans le radio et de faibles variations temporelles rapidesTrottier, Éric 10 May 2024 (has links)
Pour la première fois, on propose d’appliquer une technique numérique d’autocorrélation d’intensité pour rechercher des minilentilles gravitationnelles dans des observations radio de noyaux actifs de galaxies (NAGs), et aussi pour trouver de faibles variations temporelles rapides. Essentiellement, la technique consiste à détecter un signal (délai temporel) cosmique (ou artificiel) à partir des fluctuations temporelles d’intensité. La programmation des algorithmes est codée en Matlab sur un microordinateur et en C++ pour le traitement en parallèle multi-cœur sur un superordinateur. On valide la technique et les logiciels développés en montrant la détection de faibles signaux artificiels périodiques et non périodiques. On pourrait aussi trouver des variations temporelles très rapides puisque les données radioastronomiques interférométriques sont échantillonnées sur de très courts laps de temps (ex., 15.625 ns). Enfin, des simulations numériques permettent d’évaluer l’efficacité de détection de notre technique innovatrice. La transformée de Fourier (TF) peut aussi détecter des signaux périodiques. Cependant, l’autocorrélation d’intensité a l’avantage majeur de détecter des signaux non périodiques, alors que la TF ne le peut pas. De plus, notre technique permet de visualiser directement la forme des signaux, tandis qu’il est très difficile de voir la forme avec la transformée de Fourier. Une nouveauté de la démonstration de notre technique est qu’on utilise des données prises par des radiointerféromètres (ex., NRAO) déjà existants dans un format standard (ex., Mark 5B), de sorte que l’on n’a pas besoin d’instrumentation spécialisée. On a analysé 22 objets. Aucun signal cosmique n’a été détecté pendant les dix minutes d’observation VLBA du NRAO de chaque objet. À partir du résultat nul obtenu et d’une analyse statistique simplifiée par la binomiale, on a fait un estimé approximatif du paramètre actuel de densité cosmique de minilentilles compactes non-baryoniques, noté Ωl, 0, uniformément distribuées dans l’intervalle de masse, 10 – 107 masses solaires, lequel correspond à des délais de ~1 ms à ~600 s. Pour le modèle plat (actuellement favorisé) avec constante cosmologique λ0 = 0.7 (Ω0 = 0.3), la limite estimée est Ωl, 0 ≤ 0.2 – 0.3. Vu le faible échantillon-test, n = 22, les incertitudes (intervalles de confiance) obtenues sont trop élevées pour fixer une contrainte statistiquement significative: statistique de petit nombre. / For the first time, we propose to apply a digital autocorrelation of intensity technique to gravitational minilensing in active galactic nuclei (AGNs) radio observations, and also to search weak rapid time variations. Essentially, the technique consists of detecting a cosmic (or artificial) signal (time delay) using intensity fluctuations as a function of time. The programming algorithm is coded in Matlab on a microcomputer and in C++ for multi-core parallel processing on a supercomputer. We validate the technique and softwares by showing weak periodic and non-periodic artificial signals detections. We could also find very fast time variations because radioastronomical interferometric data are sampled over very short times (e.g., 15.625 ns). Finally, numerical simulations make it possible to evaluate the detection efficiency of our innovative technique. The Fourier transform (FT) can also detect periodic signals. However, the main advantage of the autocorrelation of intensity is that it can detect non-periodic signals, while the FT cannot detect these non-periodic signals. Moreover, our technique allows a direct visualization of the shape of the signals, while it is very difficult to see the shape with a Fourier Transform. A novelty of the demonstration of our technique is that we use data taken with existing radio-interferometers (e.g., NRAO) in a standard format (e.g., Mark 5B) and therefore no specialized instrumentation is needed. We analyzed 22 objects. No signal has been detected for the ten minutes of VLBA of the NRAO observation for each object. From the null result obtained and a simplified statistical analysis by the binomial, we made a rough estimate of the present cosmic density parameter of non-baryonic compact minilenses, named Ωl, 0, uniformly distributed in the mass range, 10 – 107 solar masses, corresponding to delays of ~1 ms to ~600 s. For a flat model (currently favored) with cosmological constant λ0 = 0.7 and with Ω0 = 0.3, the estimated limit is Ωl, 0 ≤ 0.2 – 0.3. Given the low test sample, n = 22, the uncertainties (confidence intervals) obtained are too high to set a statistically significant constraint: small number statistics.
|
1610 |
La stimulation transcrânienne par courant direct pour potentialiser la réadaptation des personnes atteintes d'une tendinopathie de la coiffe des rotateursFournier Belley, Amélie 21 June 2024 (has links)
INTRODUCTION : La tendinopathie de la coiffe des rotateurs (CR) entraîne de la douleur et des limitations fonctionnelles qui seraient expliquées en partie par une perturbation du contrôle neuromusculaire de l’épaule. L’entrainement sensorimoteur a été démontré efficace pour rééduquer le contrôle neuromusculaire suite à cette atteinte. Chez des populations neurologiques, l’ajout de stimulation anodale transcrânienne par courant direct (a-tDCS) à un entrainement sensorimoteur permet d’améliorer plus rapidement la condition des patients. Ainsi, l’ajout de l’a-tDCS pourrait optimiser l’efficacité de l’entrainement sensorimoteur à la suite d’une tendinopathie de la CR. OBJECTIF : Comparer un groupe recevant un programme de réadaptation centré sur l’entrainement sensorimoteur et l’a-tDCS, à un groupe recevant le même programme mais avec une a-tDCS placébo. MÉTHODOLOGIE : Quarante adultes présentant une tendinopathie de la CR ont pris part aux 4 évaluations (0, 3, 6, 12 semaines) et au programme de réadaptation de 6 semaines (incluant éducation, entrainement sensorimoteur et renforcement musculaire) de cet essai clinique randomisé à triple insu (participants, physiothérapeute traitant, évaluateur). Les symptômes et limitations fonctionnelles (questionnaires Disability of the Arm, Shoulder and Hand [DASH] et Western Ontario Rotator Cuff [WORC]) et la distance acromiohumérale (DAH ; mesures échographiques à 0°, 45°, 60° d’élévation du bras) étaient les variables à l’étude. L’a-tDCS était positionnée au-dessus du cortex moteur controlatéral à la douleur (stimulation 1,5 mA pour 30 minutes) et appliquée pendant l’entrainement sensorimoteur. RÉSULTATS : Une amélioration statistiquement significative aux DASH et WORC à 3, 6 et 12 semaines et de la DAH à 45° et 60° à 6 semaines chez les deux groupes a été démontrée (effet Temps P < 0,05). Toutefois, aucune différence entre les groupes n’a été observée dans cette amélioration pour toutes les variables (interaction Groupe X Temps P > 0,43) CONCLUSION : L’ajout de l’a-tDCS ne semble pas améliorer l’efficacité de l’entrainement sensorimoteur pour les personnes atteintes d’une tendinopathie de de la CR. / BACKGROUND: Rotator cuff (RC) tendinopathy results in pain and functional limitations, and these deficits can be explained, in part, by an alteration of shoulder motor control. For treatment of RC tendinopathy, sensorimotor training has been shown to be effective to reduce symptoms and improve function, as well as optimize shoulder motor control. Anodal transcranial direct current stimulation (a-tDCS), an electrostimulation technique known to modulate the motor cortex excitability, has been shown to enhance the effects of sensorimotor training in neurological populations. The addition of a-tDCS during a rehabilitation program centered on sensorimotor training could enhance motor learning associated with sensorimotor training and thus improve treatment outcome. OBJECTIVE: To compare a group receiving a rehabilitation program centered on sensorimotor training with a-tDCS to a group receiving the same rehabilitation program with sham a-tDCS. METHODS: Forty adults with RC tendinopathy part in the 4 evaluation sessions (0, 3, 6, 12 weeks) and the 8 supervised physiotherapy treatments during the 6-week rehabilitation program (education, sensorimotor training, strengthening) of this triple-blind randomized control trial (evaluator, physiotherapist and participants). Outcome measures were symptoms and functional limitations (Disability of the Arm, Shoulder and Hand [DASH] and the Western Ontario Rotator Cuff [WORC] index), as well as acromiohumeral distance (AHD; ultrasonographic measurement at 0° and 60° of elevation arm). A-tDCS (1.5 mA for 30 minutes) was applied during sensorimotor training on the motor cortex contralateral to the side of pain. RESULTS: Both groups showed significant improvement in DASH and WORC at 3, 6 and 12 weeks and in AHD at 45° and 60° at 6 weeks (P < .05). However, no significant Group-by-Time interaction was observed for all outcomes (P > .43). CONCLUSION: Results do not demonstrate any added effects of a-tDCS during a rehabilitation program in individuals with RC tendinopathy.
|
Page generated in 0.0852 seconds