471 |
Accents régionaux en français : perception, analyse et modélisation à partir de grands corpusWoehrling, Cécile 25 May 2009 (has links) (PDF)
De grands corpus oraux comprenant des accents régionaux du français deviennent aujourd'hui disponibles : leurs données offrent une bonne base pour entreprendre l'étude des accents. Les outils de traitement automatique de la parole permettent de traiter des quantités de données plus importantes que les échantillons que peuvent examiner les experts linguistes, phonéticiens ou dialectologues. La langue française est parlée dans de nombreux pays à travers le monde. Notre étude porte sur le français d'Europe continentale, excluant ainsi des territoires comme le Québec, l'Afrique francophone ou encore les départements d'Outre-Mer. Nous étudierons des accents régionaux de France, de Belgique et de Suisse romande. Quelles sont les limites géographiques à l'intérieur desquelles il est possible d'affirmer que les locuteurs ont le même accent ? La réponse à cette question n'est pas évidente. Nous avons adopté la terminologie suivante, adaptée à nos données : nous parlerons d'accent lorsque nous ferons référence à une localisation précise telle qu'une ville ou une région donnée ; nous utiliserons le terme variété pour désigner un ensemble plus vaste. Bien que de nombreuses études décrivent les particularités des accents du français, il existe moins de travaux décrivant la variation de la langue dans son ensemble, et encore moins du point de vue du traitement automatique. De nombreuses questions restent ouvertes. Combien d'accents un auditeur natif du français peut-il identifier ? Quelles performances un système automatique pourrait-il atteindre pour une tâche identique? Les indices décrits dans la littérature linguistique comme caractéristiques de certains accents peuvent-ils être mesurés de manière automatique ? Sont-ils pertinents pour différencier des variétés de français ? Découvrirons-nous d'autres indices mesurables sur nos corpus ? Ces indices pourront-ils être mis en relation avec la perception ? Au cours de notre thèse, nous avons abordé l'étude de variétés régionales du français du point de vue de la perception humaine aussi bien que de celui du traitement automatique de la parole. Traditionnellement, nombre d'études en linguistique se focalisent sur l'étude d'un accent précis. Le traitement automatique de la parole permet d'envisager l'étude conjointe de plusieurs variétés de français : nous avons voulu exploiter cette possibilité. Nous pourrons ainsi examiner ce qui diffère d'une variété à une autre, ce qui n'est pas possible lorsqu'une seule variété est décrite. Nous avons la chance d'avoir à notre disposition un système performant d'alignement automatique de la parole. Cet outil, qui permet de segmenter le flux sonore suivant une transcription phonémique, peut se révéler précieux pour l'étude de la variation. Le traitement automatique nous permet de prendre en considération plusieurs styles de parole et de nombreux locuteurs sur des quantités de données importantes par rapport à celles qui ont pu être utilisées dans des études linguistiques menées manuellement. Nous avons automatiquement extrait des caractéristiques du signal par différentes méthodes ; nous avons cherché à valider nos résultats sur deux corpus avec accents. Les paramètres que nous avons retenus ont permis de classifier automatiquement les locuteurs de nos deux corpus.
|
472 |
CONTRIBUTION A LA VALIDATION GLOBALE D'UN LOGICIEL DE SIMULATION THERMO-AERAULIQUE DU BATIMENT : PROPOSITION DE NOUVEAUX OUTILS D'AIDE A LA VALIDATION.Mara, Thierry Alex 31 December 2000 (has links) (PDF)
Les logiciels de simulation du comportement thermique jouent un rôle capital dans l'amélioration des performances énergétiques des bâtiments. Se pose cependant le problème du crédit à apporter aux résultats de simulations de ces logiciels, autrement dit, de l'aptitude de ces derniers et des modèles intégrés à représenter la réalité. Dans ces travaux, nous appliquons une méthodologie basée sur la vérification du logiciel et sur la validation expérimentale de modèles. Pour mener à bien la première phase, nous appliquons une procédure qui a fait ses preuves : la procédure de comparaison inter-logiciels BESTEST. La validation expérimentale nécessite d'une part, la recherche des sollicitations mal prises en compte par le modèle et d'autre part, l'identification des paramètres les plus influents de ce derniers. Nous proposons, pour la première étude, l'utilisation d'un outil d'analyse temps-fréquence : la transformée de Fourier à court-terme. En ce qui concerne la seconde, une méthode d'analyse de sensibilité paramétrique de modèles, basée sur les outils d'analyse spectrale, a été développée. Cette technique constituant le coeur de ces travaux, un chapitre entier est dédié à l'analyse de sensibilité.
|
473 |
Définition et mise en place d'un outil temps réel d'analyse des caractéristiques physiques des semences sèchesMuracciole, Vincent 29 September 2009 (has links) (PDF)
L'objectif de la présente thèse est d'étudier, de définir et de mettre en place un système de vision artificielle permettant de discriminer la nature et la variété de semences à partir de leurs images numériques. Une première étude a porté sur l'étude d'un dispositif mono-caméra destiné au contrôle de la qualité de lots de semences dans l'optique de leur certification. Il est apparu qu'un système mono-caméra ne permettait pas d'identifier les semences dont les faces présentent une disparité de couleur. Ainsi, les semences endommagées ne peuvent pas être correctement détectées avec un tel dispositif. Une deuxième étude a porté sur l'étude et la réalisation d'un nouveau système d'acquisition, muni de trois caméras, et capable de prendre plusieurs images de plusieurs faces d'un même objet. Un prototype a été construit, reposant sur une nouvelle architecture optique et électronique. A l'aide de ce prototype, une collection d'images de semences et de contaminants a été acquise. Sur cette collection, des algorithmes de traitement d'images et de discrimination ont été testés. Les semences composant cette collection ont été caractérisées par plusieurs centaines de variables quantitatives, portant sur leur morphologie, leur couleur et leur texture. Plusieurs méthodes de discrimination ont été étudiées : l'analyse discriminante linéaire (ADL), l'analyse factorielle discriminante, l'analyse discriminante PLS et une méthode de réseau de neurones probabilistes à ajustement adaptatif de poids. Dans tous les cas, les variables ont été sélectionnées préalablement par ADL avec introduction successive des variables les plus discriminantes. L'existence de trois images numériques pour chaque objet étudié offre des possibilités nouvelles en ce qui concerne la prise de décision. Plusieurs heuristiques ont été testées. Nous avons comparé les résultats obtenus en concaténant les tableaux de caractéristiques acquises à l'aide des trois caméras ou en mettant en jeu une stratégie de vote, majoritaire ou unanime. Quelle que soit la stratégie de décision, le réseau de neurones probabilistes donne les résultats les meilleurs, légèrement supérieurs à ceux obtenus par l'ADL. Nous avons conclu que, en considérant la simplicité de l'analyse discriminante linéaire, cette méthode était la plus appropriée pour la réalisation d'un automate fonctionnant en temps réel et capable de répondre aux contraintes de la certification des lots de semences.
|
474 |
A Framework for Unsupervised Learning of Dialogue StrategiesPietquin, Olivier 01 April 2004 (has links)
This book addresses the problems of spoken dialogue system design and especially automatic learning of optimal strategies for man-machine dialogues. Besides the description of the learning methods, this text proposes a framework for realistic simulation of human-machine dialogues based on probabilistic techniques, which allows automatic evaluation and unsupervised learning of dialogue strategies. This framework relies on stochastic modelling of modules composing spoken dialogue systems as well as on user modelling. Special care has been taken to build models that can either be hand-tuned or learned from generic data.
|
475 |
IRM cardio-vasculaire, des séquences d'acquisition aux paramètres physiologiquesLalande, Alain 29 May 2012 (has links) (PDF)
Mes travaux de recherche s'articulent principalement autour de l'extraction automatisée de paramètres anatomiques et fonctionnels en L'Imagerie par Résonance Magnétique (IRM) du cœur et de l'aorte (les renvois des références dans ce document correspondent aux numéros de la liste des publications). Plus précisément, ces travaux sur l'IRM portent sur les thématiques suivantes : - Etude de la fonction cardiaque - Etude de la désynchronisation cardiaque - Etude de la perfusion myocardique et de la viabilité - Etude de l'élasticité de l'aorte - Etude du flux sanguin et détermination de zones de stress au niveau de la paroi de l'aorte - Métrologie des sinus de Valsalva Ces différents points vont être détaillés dans les paragraphes suivants. L'IRM, en particulier l'utilisation de séquences ciné-IRM, constitue de nos jours la technique de référence pour étudier la fonction cardiaque. Cependant, malgré les efforts déployés en traitement numérique des images, l'interprétation médicale subjective est toujours la méthode la plus répandue dans les services cliniques. La quantification automatique de la fonction cardiaque constituant une aide au diagnostic importante fut la thématique de mes travaux de thèse [1,2,5,21]. Ceux-ci portaient sur la segmentation automatique du ventricule gauche à partir de coupes petit-axe acquises en ciné-IRM. La méthode développée, basée sur la logique floue et la programmation dynamique, permet une segmentation automatique des contours endocardique et épicardique sur chaque image de chaque coupe, rendant ainsi possible le calcul automatique du volume du ventricule gauche au cours du cycle cardiaque, des volumes diastolique et systolique et par conséquent de la fraction d'éjection du ventricule gauche [21]. Je participe à une étude multicentrique (initiée conjointement par le CNRS et l'INSERM et impliquant de nombreux laboratoires français) sur les méthodes de détection automatique des contours du cœur sur des séquences cinétiques d'images, ainsi que sur les méthodes d'évaluation et de validation de ces segmentations [99]. Actuellement, des méthodologies permettant de comparer plusieurs méthodes d'estimation d'un paramètre d'intérêt clinique sans connaître de valeur de référence (i.e. sans gold standard) sont étudiées [102]. La seule segmentation du cœur sur des IRM n'est pas suffisante pour étudier certaines pathologies telles que la désynchronisation cardiaque. Des réglages spécifiques sur des séquences ciné-IRM conventionnelles ont permis d'obtenir des données appropriées à l'étude du mouvement local du cœur par des méthodes de flux optique basées sur la phase du signal [70,78]. Une étape supplémentaire consiste à transformer la modélisation locale du mouvement cardiaque en un paramètre de désynchronisation, calculé à partir du délai de contraction entre deux parois. Nos résultats, obtenus sur des patients présentant une désynchronisation, vont être confrontés aux paramètres utilisés en routine clinique. En effet, tous les patients ont un examen échographique, et le paramètre calculé en IRM sera comparé au Septal-to-Posterior Wall Motion Delay (SPWMD) calculé en échographie, ainsi qu'à la durée du QRS. L'étude de la fonction cardiaque n'est pas le seul outil disponible en IRM permettant d'étudier les atteintes cardio-vasculaires. En effet, l'IRM de perfusion après injection d'un produit de contraste à base de gadolinium permet d'obtenir des valeurs diagnostiques et pronostiques dans l'étude de l'obstruction micro-vasculaire après infarctus du myocarde [12,17,26]. Une automatisation du traitement permet une évaluation en routine clinique de l'étude de la perfusion du myocarde au premier passage d'un produit de contraste [13,18,24]. De plus, l'utilisation d'images acquises dix minutes après injection de ce produit permet la quantification de la viabilité myocardique, notamment en évaluant la taille et le degré de l'infarctus du myocarde [20,28]. Nos travaux ont entre autre montré les liens entre la taille de l'infarctus et l'hyperglycémie ainsi qu'une valeur pronostique importante de l'obstruction micro-vasculaire persistante [29,31,34]. Actuellement, nous travaillons sur le développement d'un outil informatique qui permettra l'évaluation complètement automatisée de la zone de l'infarctus, ainsi que de la zone périphérique de l'infarctus. Les anévrismes de l'aorte (ascendante ou descendante) présentent un risque naturel de rupture ou de dissection de la paroi. L'IRM fonctionnelle a ouvert d'autres critères d'évaluation du risque que le diamètre maximal en permettant d'étudier les propriétés élastiques de la paroi aortique, le stress hémodynamique ainsi que le flux au sein de l'aorte. Dans ce cadre, j'ai développé des séquences appropriées pour l'évaluation de ces propriétés de l'aorte ainsi que des protocoles de recherches spécifiques pour l'étude des anévrismes et/ou dissections de l'aorte abdominale, ou de l'aorte thoracique, notamment dans le cadre de suivi de syndromes génétiques ou de patients porteurs de bicuspidie aortique. Parmi les paramètres étudiés, la compliance et la distensibilité aortiques sont deux paramètres associés à l'élasticité de l'aorte. Nos travaux sur l'évaluation automatisée de la compliance aortique sur des populations à risques (entre autres des patients porteurs de syndromes liés au système cardio-vasculaire) [11,32] ont été intégrés dans des études plus vastes (comprenant des informations cliniques, biologiques, d'imagerie et de génétique) [15, 25, 27], certaines en collaborations avec l'APHP et le Collège de France (INSERM U36). Nous avons aussi montré que chez des sujets sains, la compliance aortique varie en fonction de l'âge, alors que le sexe et le tabac n'ont aucune influence sur ce paramètre [100]. De plus, la mesure de la distensibilité aortique est bien corrélée à une autre méthode non-invasive de mesure de l'élasticité de l'aorte, utilisant une technique d'impédance bioélectrique [35]. Cette étude a été effectuée en collaboration avec le laboratoire LISA et le CHU d'Angers. Un autre paramètre d'élasticité est la vitesse de l'onde de flux du sang, définie à partir d'IRM anatomiques et codées en vitesse de flux. Une méthode semi-automatique a été mise au point pour calculer ce paramètre, et le confronter à la compliance aortique. L'augmentation de la vitesse de l'onde de flux est liée à une diminution de la compliance aortique, et donc à une augmentation de la rigidité de l'aorte [30]. L'étude de l'élasticité de l'aorte en routine clinique est actuellement mise en place pour des examens concernant des syndromes familiaux de pathologie de l'aorte thoracique. L'IRM procure la possibilité d'acquisitions tridimensionnelles codées en vitesse de flux, permettant d'extraire de nombreux paramètres, comme la vitesse maximale du flux sanguin (en 3D), la vitesse radiale maximale (pour étudier les contraintes au niveau de la paroi), le débit sanguin instantané, la fraction de reflux, ainsi qu'une estimation, pour l'instant visuelle, de la forme tridimensionnelle du flux (flux laminaire, hélicoïdal ou turbulent) [43]. Par rapport aux sujets sains, la vitesse du flux sanguin maximale augmente significativement pour les patients porteurs d'une bicuspidie et diminue significativement pour les patients porteurs de la mutation MYH11 [79]. Actuellement, nos recherches se concentrent sur l'étude de la vitesse radiale, et de son impact dans l'évolution d'anévrisme de l'aorte thoracique, en particulier dans le cas de bicuspidie aortique. Un atout majeur de l'IRM est de pouvoir positionner les plans d'acquisition selon n'importe quelle orientation. Ainsi, l'utilisation d'une série de plans perpendiculaires à l'axe de l'aorte doit permettre une reconstruction 4D de celle-ci, sans effet de volume partiel. La collaboration avec le laboratoire MOIVRE de l'Université de Sherbrooke (Canada) a fournit des premiers résultats satisfaisants quant à la segmentation automatique de la lumière de l'aorte [44]. La segmentation automatique du thrombus et de la paroi de l'aorte s'avère plus difficile. Une amélioration de l'algorithme permet une segmentation semi-automatique générique (avec une interaction minime de l'utilisateur) de la lumière aortique et de la paroi aortique, aussi bien sur des IRM que sur des images tomodensitométriques de l'aorte, où les contraintes ne sont pas les mêmes. L'évaluation de l'élasticité de la paroi, ainsi que la modélisation du flux sanguin, seront intégrées dans la représentation 3D de l'aorte, pour associer la déformation de l'aorte à l'amplitude et l'orientation du flux sanguin, dans le but de rechercher de zones de fragilité, dites de " stress ". L'IRM permet une étude fiable des sinus de Valsalva en faisant l'acquisition des images selon un plan perpendiculaire à l'axe de l'aorte. Cependant, il n'y a pas actuellement de consensus sur les mesures à considérer à partir de ce plan pour évaluer les sinus, ou les anévrismes localisés sur un seul sinus. Le développement d'une méthode automatique de segmentation des sinus de Valsalva [45] procure une mesure et précise des différentes longueurs entre les commissures, les cuspides et le centre des sinus (lui aussi localisé automatiquement) [80,101]. Les mesures obtenues avec cet outil seront confrontées aux diamètres mesurés manuellement sur des images en coupe sagittale (IRM de types SSFP (en respiration libre ou en apnée), écho de spin (en respiration libre) et Turbo spin-echo (en apnée)).
|
476 |
Désignations nominales des événements : étude et extraction automatique dans les textesArnulphy, Béatrice 02 October 2012 (has links) (PDF)
Ma thèse a pour but l'étude des désignations nominales des événements pour l'extraction automatique. Mes travaux s'inscrivent en traitement automatique des langues, soit dans une démarche pluridisciplinaire qui fait intervenir linguistique et informatique. L'extraction d'information a pour but d'analyser des documents en langage naturel et d'en extraire les informations utiles à une application particulière. Dans ce but général, de nombreuses campagnes d'extraction d'information ont été menées~: pour chaque événement considéré, il s'agit d'extraire certaines informations relatives (participants, dates, nombres, etc.). Dès le départ, ces challenges touchent de près aux entités nommées (éléments " notables " des textes, comme les noms de personnes ou de lieu). Toutes ces informations forment un ensemble autour de l'événement. Pourtant, ces travaux ne s'intéressent que peu aux mots utilisés pour décrire l'événement (particulièrement lorsqu'il s'agit d'un nom). L'événement est vu comme un tout englobant, comme la quantité et la qualité des informations qui le composent. Contrairement aux travaux en extraction d'informations générale, notre intérêt principal est porté uniquement sur la manière dont sont nommés les événements qui se produisent et particulièrement à la désignation nominale utilisée. Pour nous, l'événement est ce qui arrive, ce qui vaut la peine qu'on en parle. Les événements plus importants font l'objet d'articles de presse ou apparaissent dans les manuels d'Histoire. Un événement peut être évoqué par une description verbale ou nominale. Dans cette thèse, nous avons réfléchi à la notion d'événement. Nous avons observé et comparé les différents aspects présentés dans l'état de l'art jusqu'à construire une définition de l'événement et une typologie des événements en général, et qui conviennent dans le cadre de nos travaux et pour les désignations nominales des événements. Nous avons aussi dégagé de nos études sur corpus différents types de formation de ces noms d'événements, dont nous montrons que chacun peut être ambigu à des titres divers. Pour toutes ces études, la composition d'un corpus annoté est une étape indispensable, nous en avons donc profité pour élaborer un guide d'annotation dédié aux désignations nominales d'événements. Nous avons étudié l'importance et la qualité des lexiques existants pour une application dans notre tâche d'extraction automatique. Nous avons aussi, par des règles d'extraction, porté intérêt au cotexte d'apparition des noms pour en déterminer l'événementialité. À la suite de ces études, nous avons extrait un lexique pondéré en événementialité (dont la particularité est d'être dédié à l'extraction des événements nominaux), qui rend compte du fait que certains noms sont plus susceptibles que d'autres de représenter des événements. Utilisée comme indice pour l'extraction des noms d'événements, cette pondération permet d'extraire des noms qui ne sont pas présents dans les lexiques standards existants. Enfin, au moyen de l'apprentissage automatique, nous avons travaillé sur des traits d'apprentissage contextuels en partie fondés sur la syntaxe pour extraire de noms d'événements.
|
477 |
Architectures matérielles pour filtres morphologiques avec des grandes éléments structurantsBartovsky, Jan 14 November 2012 (has links) (PDF)
Cette thèse se concentre sur la mise en œuvre d'implantations matérielles dédiées des filtres morphologiques fondamentaux, basés sur des itérations d'érosions/dilatations. L'objectif principal de cette thèse est de proposer une mise en oeuvre efficace et programmable de ces opérateurs en utilisant des algorithmes en flot de données et considérant les besoins applicatifs globaux. Dans la première partie, nous étudions les algorithmes existants pour les opérateurs morphologiques fondamentaux et leur réalisation sur des différentes plates-formes informatiques. Nous nous intéressons plus particulièrement à un algorithme basé sur la file d'attente pour la mise en œuvre de la dilatation car il permet de réaliser l'accès séquentiel aux données avec une latence minimale, ce qui est très favorable pour le matériel dédié. Nous proposons ensuite un autre algorithme réalisant l'ouverture morphologique, sous angle arbitraire, basé sur le même principe d'une file d'attente, permettant d'obtenir directement des mesures de granulométrie. La deuxième partie présente la mise en oeuvre matérielle des algorithmes efficaces au moyen d'unités de traitement à flot de données. Nous commençons par l'unité de dilatation 1-D, puis grâce à la séparabilité de la dilatation nous construisons des unités 2-D rectangulaire et polygonale. L'unité de traitement pour l'ouverture orientée et spectre modèle est ainsi décrit. Nous présentons également une méthode de parallélisation de calcul en dupliquant des unités de traitement. Toutes les unités de traitement proposés sont évalués expérimentalement par la réalisation des prototypes à base de circuits programmables (FPGA), et les résultats en termes d'occupation de surface et de vitesse de traitement sont discutées. Dans la troisième partie, les unités de calcul proposées sont utilisées dans deux applications différentes, illustrant ainsi leur capacité de répondre exigences des applications embarquées a basse consommation. Les principales contributions de cette thèse sont : i) proposition d'un nouvel algorithme d'ouverture sous angle arbitraire, ii) réalisation des architectures matérielles dédiées et programmables d'opérateurs morphologiques fondamentaux à l'élément structurant large et sous angle arbitraire ; iii) amélioration de la performance obtenue grâce à l'exploitation de plusieurs niveaux de parallélisme. Les résultats suggèrent que les performances de temps réel précédemment irréalisable de ces opérateurs traditionnellement coûteux peuvent être atteints même pour des longues concaténations d'opérateurs ou des images à haute résolution.
|
478 |
Évaluation d'une technologie compacte de production d'eau potableFournier, Jean-Philippe January 2006 (has links) (PDF)
Depuis plus de 30 ans, au Québec et dans plusieurs pays, des règlements en matière de protection de l'environnement ont été adoptés. Des milliards de dollars ont été investis pour améliorer l'état des cours d'eau, épurer les effluents et pour moderniser les installations de production et de distribution d'eau potable. Encore aujourd'hui, une partie de la population n'est toujours pas alimentée par un système de distribution d'eau. De plus, pour les pourvoiries du Québec, par exemple, les difficultés liées au ravitaillement s'ajoutent au besoin de fournir une eau de qualité. De surcroît, les eaux de surface d'aujourd'hui ne peuvent plus être considérées sans danger pour la consommation humaine. Elles peuvent être contaminées par des bactéries ou autres polluants. Cette situation problématique amène des entreprises à chercher des solutions. Une entreprise émergente, Aquagenex, a entrepris de développer un système portatif de traitement de l'eau, utilisant l'ozonation comme élément principal de désinfection. La technologie Expia se veut une solution pour fournir une eau potable de qualité à partir d'eau de surface ou souterraine, peu importe la localisation géographique. L'objectif des présents travaux de recherche consiste à tester l'efficacité et la robustesse d'un appareil de production d'eau potable portatif, pour ainsi mieux connaître ses limites et ses paramètres de contrôle, et à améliorer le niveau de compréhension des mécanismes mis en jeu lors du processus de traitement. Lors des manipulations en laboratoire, aucune modification n'a été apportée à l'équipement, à l'eau brute et aux procédures décrites dans le guide de l'utilisateur fourni par Aquagenex. Les eaux étudiées proviennent de différents cours d'eau québécois et de cours d'eau accessibles autour de la ville de Guanajuato au Mexique. Des eaux synthétiques ont également été préparées en laboratoire. Les paramètres physico-chimiques (turbidité, couleur, etc.) et bactériologiques (coliforrnes fécaux, totaux, etc.) couramment utilisés en traitement de l'eau sont également utilisés dans le cadre de ce projet pour caractériser et analyser les eaux brutes et les eaux traitées.
Les résultats de cette étude font ressortir que l'eau traitée ne subit aucune modification de son pH et de sa conductivité pour les eaux québécoises et mexicaines. Cependant, une eau brute chargée en matière organique et en turbidité, suite au traitement, ne respecte pas toujours les valeurs émises. Par contre, les coliforrnes fécaux et totaux ainsi que les BHAA respectent les valeurs cibles établies suite au traitement. Suite au projet présent, une recommandation quant à des essais de validation complémentaires peut être proposée. Le paramètre « turbidité » pourrait être jumelé avec des microorganismes indicateurs afin d'examiner si le traitement les élimine même si la turbidité est supérieure aux limites permises. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Équipement portatif, Eau potable, Ozone, Charbon actif, Matière organique, Turbidité.
|
479 |
Effets d'un programme en électrostimulation suite à une rupture du tendon d'AchilleVeillette, Pierre-Marc January 2008 (has links) (PDF)
L'électrostimulation est une méthode de mieux en mieux comprise en physiologie humaine. D'un autre côté, la rupture du tendon d'Achille amène chez la personne l'ayant subi une perte de force et de volume chronique. L'objet de ce projet fut d'observer si la force et le volume d'une jambe peuvent être améliorés avec l'aide d'un entraînement en électrostimulation. 9 sujets divisés en deux groupes (expérimental = 6, témoin = 3) ont subit un pré-test où fut mesurée leur force de contraction concentrique, excentrique et isométrique lors du mouvement de flexion plantaire. Le volume de la jambe fut également mesuré par la prise de la circonférence du mollet au niveau du ventre des gastrocnémiens. Le groupe expérimental a suivi un entraînement en électrostimulation des fléchisseurs plantaires d'une seule jambe à une fréquence de 50 Hz, 5 secondes de travail, 15 secondes de repos pendant 15 minutes. L'entraînement eu lieu 3 fois par semaine durant 8 semaines. Le groupe témoin ne suivit aucun entraînement particulier durant les 8 semaines. Un test identique au pré test fut repassé 4 semaines (test intermédiaire) après le début de l'entraînement (ou du non-entraînement
pour le groupe témoin). L'ensemble des mesures de force et de volume (post-test) fut repris après les 8 semaines d'entraînement (ou de non entraînement pour le groupe témoin). Une analyse comparative de la force et du volume des deux jambes avant et après la période de 8 semaines fut effectuée pour les deux groupes. Nous avons observé une augmentation significative de force concentrique et isométrique pour la jambe entraînée par électrostimulation du groupe expérimental. Aucun autre gain de force ne fut significatif pour les autres groupes. Aucun gain de volume ne fut significatif pour aucun groupe. Ces résultats laissent croire que l'électrostimulation peut améliorer la force d'une jambe et que cette technique pourrait être employée pour aider ceux ayant subi une rupture du tendon d'Achille. D'autres recherches sont nécessaires sur des personnes ayant subi une rupture du tendon d'Achille pour observer si un gain de volume serait possible et si les paramètres de stimulation pourraient être améliorés. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Électrostimulation, Rupture tendon d'Achille, Triceps sural, Force.
|
480 |
Étude du processus de coagulation-floculation du système montmorillonite-chitosane dans l'élimination de métaux de transitionAssaad, Elias January 2006 (has links) (PDF)
La présence de cations de métaux de transition en grandes concentrations dans les eaux présente des risques pour la santé humaine et pour l'environnement. Une des méthodes les plus utilisées pour les éliminer est la coagulation-floculation. Il s'agit d'une étape essentielle dans la chaîne de traitement des eaux. Cependant, l'utilisation de cette méthode pour traiter une eau de faible turbidité est difficile. Le recours à l'ajout de montmorillonite est d'un grand intérêt dans ce cas, car cela permet d'intensifier le processus de coagulation-floculation. Afin d'améliorer ce processus, l'ajout d'un floculant, non polluant, non toxique et biodégradable, s'avère nécessaire, d'où l'utilisation du chitosane qui joue deux rôles essentiels: il favorise à la fois la floculation et la complexation des cations des métaux de transition. Le présent travail a pour objet d'étudier l'élimination de trois cations de métaux de transition, à savoir le cobalt, le nickel et le cuivre, par coagulation-floculation du système montmorillonite-chitosane. L'élimination des cations métalliques et de la turbidité de l'eau dépend de plusieurs facteurs, dont le pH et le rapport massique (chitosane/montmorillonite). De même, les concentrations de cations, de chitosane et de montmorillonite peuvent, elles aussi, avoir un effet sur l'élimination de ces cations. Étant donné la multitude des facteurs pouvant influencer l'élimination de ces cations par la montmorillonite et par le chitosane, ainsi que la coagulation-floculation du système montmorillonite-chitosane, l'utilisation d'un plan factoriel s'est avérée nécessaire pour surmonter cette difficulté et déterminer les conditions favorables à une élimination optimale des trois cations étudiés. Les résultats obtenus prouvent qu'il peut exister une synergie entre le chitosane et la montmorillonite dans l'élimination des cations métalliques. La montmorillonite, dont l'efficacité a augmenté après modification chimique, et le chitosane ont montré une affinité différente pour chacun des trois cations métalliques. Cette affinité augmente dans l'ordre suivant: CO²⁺ < Ni²⁺ < Cu²⁺ . Une meilleure coagulation-floculation ne donne pas forcément une meilleure élimination des cations métalliques. Ainsi, l'élimination des cations dans une solution contenant 1 à 3 (g/L) de montmorillonite augmente avec l'augmentation du pH entre 3 et 7, tandis que la turbidité minimale est obtenue à un pH = 5,4 et pour un rapport massique (chitosane/montmorillonite) =0,6%. Ces conditions jugées optimales dans le cadre du présent travail peuvent faire l'objet d'une étude ultérieure plus poussée, visant la mise en oeuvre d'une technologie de démétallisation des eaux. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Chitosane, Montmorillonite, Coagulation, Floculation, Cations métalliques, Synergie.
|
Page generated in 0.1045 seconds