461 |
A Framework for Unsupervised Learning of Dialogue StrategiesPietquin, Olivier 01 April 2004 (has links)
This book addresses the problems of spoken dialogue system design and especially automatic learning of optimal strategies for man-machine dialogues. Besides the description of the learning methods, this text proposes a framework for realistic simulation of human-machine dialogues based on probabilistic techniques, which allows automatic evaluation and unsupervised learning of dialogue strategies. This framework relies on stochastic modelling of modules composing spoken dialogue systems as well as on user modelling. Special care has been taken to build models that can either be hand-tuned or learned from generic data.
|
462 |
IRM cardio-vasculaire, des séquences d'acquisition aux paramètres physiologiquesLalande, Alain 29 May 2012 (has links) (PDF)
Mes travaux de recherche s'articulent principalement autour de l'extraction automatisée de paramètres anatomiques et fonctionnels en L'Imagerie par Résonance Magnétique (IRM) du cœur et de l'aorte (les renvois des références dans ce document correspondent aux numéros de la liste des publications). Plus précisément, ces travaux sur l'IRM portent sur les thématiques suivantes : - Etude de la fonction cardiaque - Etude de la désynchronisation cardiaque - Etude de la perfusion myocardique et de la viabilité - Etude de l'élasticité de l'aorte - Etude du flux sanguin et détermination de zones de stress au niveau de la paroi de l'aorte - Métrologie des sinus de Valsalva Ces différents points vont être détaillés dans les paragraphes suivants. L'IRM, en particulier l'utilisation de séquences ciné-IRM, constitue de nos jours la technique de référence pour étudier la fonction cardiaque. Cependant, malgré les efforts déployés en traitement numérique des images, l'interprétation médicale subjective est toujours la méthode la plus répandue dans les services cliniques. La quantification automatique de la fonction cardiaque constituant une aide au diagnostic importante fut la thématique de mes travaux de thèse [1,2,5,21]. Ceux-ci portaient sur la segmentation automatique du ventricule gauche à partir de coupes petit-axe acquises en ciné-IRM. La méthode développée, basée sur la logique floue et la programmation dynamique, permet une segmentation automatique des contours endocardique et épicardique sur chaque image de chaque coupe, rendant ainsi possible le calcul automatique du volume du ventricule gauche au cours du cycle cardiaque, des volumes diastolique et systolique et par conséquent de la fraction d'éjection du ventricule gauche [21]. Je participe à une étude multicentrique (initiée conjointement par le CNRS et l'INSERM et impliquant de nombreux laboratoires français) sur les méthodes de détection automatique des contours du cœur sur des séquences cinétiques d'images, ainsi que sur les méthodes d'évaluation et de validation de ces segmentations [99]. Actuellement, des méthodologies permettant de comparer plusieurs méthodes d'estimation d'un paramètre d'intérêt clinique sans connaître de valeur de référence (i.e. sans gold standard) sont étudiées [102]. La seule segmentation du cœur sur des IRM n'est pas suffisante pour étudier certaines pathologies telles que la désynchronisation cardiaque. Des réglages spécifiques sur des séquences ciné-IRM conventionnelles ont permis d'obtenir des données appropriées à l'étude du mouvement local du cœur par des méthodes de flux optique basées sur la phase du signal [70,78]. Une étape supplémentaire consiste à transformer la modélisation locale du mouvement cardiaque en un paramètre de désynchronisation, calculé à partir du délai de contraction entre deux parois. Nos résultats, obtenus sur des patients présentant une désynchronisation, vont être confrontés aux paramètres utilisés en routine clinique. En effet, tous les patients ont un examen échographique, et le paramètre calculé en IRM sera comparé au Septal-to-Posterior Wall Motion Delay (SPWMD) calculé en échographie, ainsi qu'à la durée du QRS. L'étude de la fonction cardiaque n'est pas le seul outil disponible en IRM permettant d'étudier les atteintes cardio-vasculaires. En effet, l'IRM de perfusion après injection d'un produit de contraste à base de gadolinium permet d'obtenir des valeurs diagnostiques et pronostiques dans l'étude de l'obstruction micro-vasculaire après infarctus du myocarde [12,17,26]. Une automatisation du traitement permet une évaluation en routine clinique de l'étude de la perfusion du myocarde au premier passage d'un produit de contraste [13,18,24]. De plus, l'utilisation d'images acquises dix minutes après injection de ce produit permet la quantification de la viabilité myocardique, notamment en évaluant la taille et le degré de l'infarctus du myocarde [20,28]. Nos travaux ont entre autre montré les liens entre la taille de l'infarctus et l'hyperglycémie ainsi qu'une valeur pronostique importante de l'obstruction micro-vasculaire persistante [29,31,34]. Actuellement, nous travaillons sur le développement d'un outil informatique qui permettra l'évaluation complètement automatisée de la zone de l'infarctus, ainsi que de la zone périphérique de l'infarctus. Les anévrismes de l'aorte (ascendante ou descendante) présentent un risque naturel de rupture ou de dissection de la paroi. L'IRM fonctionnelle a ouvert d'autres critères d'évaluation du risque que le diamètre maximal en permettant d'étudier les propriétés élastiques de la paroi aortique, le stress hémodynamique ainsi que le flux au sein de l'aorte. Dans ce cadre, j'ai développé des séquences appropriées pour l'évaluation de ces propriétés de l'aorte ainsi que des protocoles de recherches spécifiques pour l'étude des anévrismes et/ou dissections de l'aorte abdominale, ou de l'aorte thoracique, notamment dans le cadre de suivi de syndromes génétiques ou de patients porteurs de bicuspidie aortique. Parmi les paramètres étudiés, la compliance et la distensibilité aortiques sont deux paramètres associés à l'élasticité de l'aorte. Nos travaux sur l'évaluation automatisée de la compliance aortique sur des populations à risques (entre autres des patients porteurs de syndromes liés au système cardio-vasculaire) [11,32] ont été intégrés dans des études plus vastes (comprenant des informations cliniques, biologiques, d'imagerie et de génétique) [15, 25, 27], certaines en collaborations avec l'APHP et le Collège de France (INSERM U36). Nous avons aussi montré que chez des sujets sains, la compliance aortique varie en fonction de l'âge, alors que le sexe et le tabac n'ont aucune influence sur ce paramètre [100]. De plus, la mesure de la distensibilité aortique est bien corrélée à une autre méthode non-invasive de mesure de l'élasticité de l'aorte, utilisant une technique d'impédance bioélectrique [35]. Cette étude a été effectuée en collaboration avec le laboratoire LISA et le CHU d'Angers. Un autre paramètre d'élasticité est la vitesse de l'onde de flux du sang, définie à partir d'IRM anatomiques et codées en vitesse de flux. Une méthode semi-automatique a été mise au point pour calculer ce paramètre, et le confronter à la compliance aortique. L'augmentation de la vitesse de l'onde de flux est liée à une diminution de la compliance aortique, et donc à une augmentation de la rigidité de l'aorte [30]. L'étude de l'élasticité de l'aorte en routine clinique est actuellement mise en place pour des examens concernant des syndromes familiaux de pathologie de l'aorte thoracique. L'IRM procure la possibilité d'acquisitions tridimensionnelles codées en vitesse de flux, permettant d'extraire de nombreux paramètres, comme la vitesse maximale du flux sanguin (en 3D), la vitesse radiale maximale (pour étudier les contraintes au niveau de la paroi), le débit sanguin instantané, la fraction de reflux, ainsi qu'une estimation, pour l'instant visuelle, de la forme tridimensionnelle du flux (flux laminaire, hélicoïdal ou turbulent) [43]. Par rapport aux sujets sains, la vitesse du flux sanguin maximale augmente significativement pour les patients porteurs d'une bicuspidie et diminue significativement pour les patients porteurs de la mutation MYH11 [79]. Actuellement, nos recherches se concentrent sur l'étude de la vitesse radiale, et de son impact dans l'évolution d'anévrisme de l'aorte thoracique, en particulier dans le cas de bicuspidie aortique. Un atout majeur de l'IRM est de pouvoir positionner les plans d'acquisition selon n'importe quelle orientation. Ainsi, l'utilisation d'une série de plans perpendiculaires à l'axe de l'aorte doit permettre une reconstruction 4D de celle-ci, sans effet de volume partiel. La collaboration avec le laboratoire MOIVRE de l'Université de Sherbrooke (Canada) a fournit des premiers résultats satisfaisants quant à la segmentation automatique de la lumière de l'aorte [44]. La segmentation automatique du thrombus et de la paroi de l'aorte s'avère plus difficile. Une amélioration de l'algorithme permet une segmentation semi-automatique générique (avec une interaction minime de l'utilisateur) de la lumière aortique et de la paroi aortique, aussi bien sur des IRM que sur des images tomodensitométriques de l'aorte, où les contraintes ne sont pas les mêmes. L'évaluation de l'élasticité de la paroi, ainsi que la modélisation du flux sanguin, seront intégrées dans la représentation 3D de l'aorte, pour associer la déformation de l'aorte à l'amplitude et l'orientation du flux sanguin, dans le but de rechercher de zones de fragilité, dites de " stress ". L'IRM permet une étude fiable des sinus de Valsalva en faisant l'acquisition des images selon un plan perpendiculaire à l'axe de l'aorte. Cependant, il n'y a pas actuellement de consensus sur les mesures à considérer à partir de ce plan pour évaluer les sinus, ou les anévrismes localisés sur un seul sinus. Le développement d'une méthode automatique de segmentation des sinus de Valsalva [45] procure une mesure et précise des différentes longueurs entre les commissures, les cuspides et le centre des sinus (lui aussi localisé automatiquement) [80,101]. Les mesures obtenues avec cet outil seront confrontées aux diamètres mesurés manuellement sur des images en coupe sagittale (IRM de types SSFP (en respiration libre ou en apnée), écho de spin (en respiration libre) et Turbo spin-echo (en apnée)).
|
463 |
Désignations nominales des événements : étude et extraction automatique dans les textesArnulphy, Béatrice 02 October 2012 (has links) (PDF)
Ma thèse a pour but l'étude des désignations nominales des événements pour l'extraction automatique. Mes travaux s'inscrivent en traitement automatique des langues, soit dans une démarche pluridisciplinaire qui fait intervenir linguistique et informatique. L'extraction d'information a pour but d'analyser des documents en langage naturel et d'en extraire les informations utiles à une application particulière. Dans ce but général, de nombreuses campagnes d'extraction d'information ont été menées~: pour chaque événement considéré, il s'agit d'extraire certaines informations relatives (participants, dates, nombres, etc.). Dès le départ, ces challenges touchent de près aux entités nommées (éléments " notables " des textes, comme les noms de personnes ou de lieu). Toutes ces informations forment un ensemble autour de l'événement. Pourtant, ces travaux ne s'intéressent que peu aux mots utilisés pour décrire l'événement (particulièrement lorsqu'il s'agit d'un nom). L'événement est vu comme un tout englobant, comme la quantité et la qualité des informations qui le composent. Contrairement aux travaux en extraction d'informations générale, notre intérêt principal est porté uniquement sur la manière dont sont nommés les événements qui se produisent et particulièrement à la désignation nominale utilisée. Pour nous, l'événement est ce qui arrive, ce qui vaut la peine qu'on en parle. Les événements plus importants font l'objet d'articles de presse ou apparaissent dans les manuels d'Histoire. Un événement peut être évoqué par une description verbale ou nominale. Dans cette thèse, nous avons réfléchi à la notion d'événement. Nous avons observé et comparé les différents aspects présentés dans l'état de l'art jusqu'à construire une définition de l'événement et une typologie des événements en général, et qui conviennent dans le cadre de nos travaux et pour les désignations nominales des événements. Nous avons aussi dégagé de nos études sur corpus différents types de formation de ces noms d'événements, dont nous montrons que chacun peut être ambigu à des titres divers. Pour toutes ces études, la composition d'un corpus annoté est une étape indispensable, nous en avons donc profité pour élaborer un guide d'annotation dédié aux désignations nominales d'événements. Nous avons étudié l'importance et la qualité des lexiques existants pour une application dans notre tâche d'extraction automatique. Nous avons aussi, par des règles d'extraction, porté intérêt au cotexte d'apparition des noms pour en déterminer l'événementialité. À la suite de ces études, nous avons extrait un lexique pondéré en événementialité (dont la particularité est d'être dédié à l'extraction des événements nominaux), qui rend compte du fait que certains noms sont plus susceptibles que d'autres de représenter des événements. Utilisée comme indice pour l'extraction des noms d'événements, cette pondération permet d'extraire des noms qui ne sont pas présents dans les lexiques standards existants. Enfin, au moyen de l'apprentissage automatique, nous avons travaillé sur des traits d'apprentissage contextuels en partie fondés sur la syntaxe pour extraire de noms d'événements.
|
464 |
Architectures matérielles pour filtres morphologiques avec des grandes éléments structurantsBartovsky, Jan 14 November 2012 (has links) (PDF)
Cette thèse se concentre sur la mise en œuvre d'implantations matérielles dédiées des filtres morphologiques fondamentaux, basés sur des itérations d'érosions/dilatations. L'objectif principal de cette thèse est de proposer une mise en oeuvre efficace et programmable de ces opérateurs en utilisant des algorithmes en flot de données et considérant les besoins applicatifs globaux. Dans la première partie, nous étudions les algorithmes existants pour les opérateurs morphologiques fondamentaux et leur réalisation sur des différentes plates-formes informatiques. Nous nous intéressons plus particulièrement à un algorithme basé sur la file d'attente pour la mise en œuvre de la dilatation car il permet de réaliser l'accès séquentiel aux données avec une latence minimale, ce qui est très favorable pour le matériel dédié. Nous proposons ensuite un autre algorithme réalisant l'ouverture morphologique, sous angle arbitraire, basé sur le même principe d'une file d'attente, permettant d'obtenir directement des mesures de granulométrie. La deuxième partie présente la mise en oeuvre matérielle des algorithmes efficaces au moyen d'unités de traitement à flot de données. Nous commençons par l'unité de dilatation 1-D, puis grâce à la séparabilité de la dilatation nous construisons des unités 2-D rectangulaire et polygonale. L'unité de traitement pour l'ouverture orientée et spectre modèle est ainsi décrit. Nous présentons également une méthode de parallélisation de calcul en dupliquant des unités de traitement. Toutes les unités de traitement proposés sont évalués expérimentalement par la réalisation des prototypes à base de circuits programmables (FPGA), et les résultats en termes d'occupation de surface et de vitesse de traitement sont discutées. Dans la troisième partie, les unités de calcul proposées sont utilisées dans deux applications différentes, illustrant ainsi leur capacité de répondre exigences des applications embarquées a basse consommation. Les principales contributions de cette thèse sont : i) proposition d'un nouvel algorithme d'ouverture sous angle arbitraire, ii) réalisation des architectures matérielles dédiées et programmables d'opérateurs morphologiques fondamentaux à l'élément structurant large et sous angle arbitraire ; iii) amélioration de la performance obtenue grâce à l'exploitation de plusieurs niveaux de parallélisme. Les résultats suggèrent que les performances de temps réel précédemment irréalisable de ces opérateurs traditionnellement coûteux peuvent être atteints même pour des longues concaténations d'opérateurs ou des images à haute résolution.
|
465 |
Évaluation d'une technologie compacte de production d'eau potableFournier, Jean-Philippe January 2006 (has links) (PDF)
Depuis plus de 30 ans, au Québec et dans plusieurs pays, des règlements en matière de protection de l'environnement ont été adoptés. Des milliards de dollars ont été investis pour améliorer l'état des cours d'eau, épurer les effluents et pour moderniser les installations de production et de distribution d'eau potable. Encore aujourd'hui, une partie de la population n'est toujours pas alimentée par un système de distribution d'eau. De plus, pour les pourvoiries du Québec, par exemple, les difficultés liées au ravitaillement s'ajoutent au besoin de fournir une eau de qualité. De surcroît, les eaux de surface d'aujourd'hui ne peuvent plus être considérées sans danger pour la consommation humaine. Elles peuvent être contaminées par des bactéries ou autres polluants. Cette situation problématique amène des entreprises à chercher des solutions. Une entreprise émergente, Aquagenex, a entrepris de développer un système portatif de traitement de l'eau, utilisant l'ozonation comme élément principal de désinfection. La technologie Expia se veut une solution pour fournir une eau potable de qualité à partir d'eau de surface ou souterraine, peu importe la localisation géographique. L'objectif des présents travaux de recherche consiste à tester l'efficacité et la robustesse d'un appareil de production d'eau potable portatif, pour ainsi mieux connaître ses limites et ses paramètres de contrôle, et à améliorer le niveau de compréhension des mécanismes mis en jeu lors du processus de traitement. Lors des manipulations en laboratoire, aucune modification n'a été apportée à l'équipement, à l'eau brute et aux procédures décrites dans le guide de l'utilisateur fourni par Aquagenex. Les eaux étudiées proviennent de différents cours d'eau québécois et de cours d'eau accessibles autour de la ville de Guanajuato au Mexique. Des eaux synthétiques ont également été préparées en laboratoire. Les paramètres physico-chimiques (turbidité, couleur, etc.) et bactériologiques (coliforrnes fécaux, totaux, etc.) couramment utilisés en traitement de l'eau sont également utilisés dans le cadre de ce projet pour caractériser et analyser les eaux brutes et les eaux traitées.
Les résultats de cette étude font ressortir que l'eau traitée ne subit aucune modification de son pH et de sa conductivité pour les eaux québécoises et mexicaines. Cependant, une eau brute chargée en matière organique et en turbidité, suite au traitement, ne respecte pas toujours les valeurs émises. Par contre, les coliforrnes fécaux et totaux ainsi que les BHAA respectent les valeurs cibles établies suite au traitement. Suite au projet présent, une recommandation quant à des essais de validation complémentaires peut être proposée. Le paramètre « turbidité » pourrait être jumelé avec des microorganismes indicateurs afin d'examiner si le traitement les élimine même si la turbidité est supérieure aux limites permises. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Équipement portatif, Eau potable, Ozone, Charbon actif, Matière organique, Turbidité.
|
466 |
Effets d'un programme en électrostimulation suite à une rupture du tendon d'AchilleVeillette, Pierre-Marc January 2008 (has links) (PDF)
L'électrostimulation est une méthode de mieux en mieux comprise en physiologie humaine. D'un autre côté, la rupture du tendon d'Achille amène chez la personne l'ayant subi une perte de force et de volume chronique. L'objet de ce projet fut d'observer si la force et le volume d'une jambe peuvent être améliorés avec l'aide d'un entraînement en électrostimulation. 9 sujets divisés en deux groupes (expérimental = 6, témoin = 3) ont subit un pré-test où fut mesurée leur force de contraction concentrique, excentrique et isométrique lors du mouvement de flexion plantaire. Le volume de la jambe fut également mesuré par la prise de la circonférence du mollet au niveau du ventre des gastrocnémiens. Le groupe expérimental a suivi un entraînement en électrostimulation des fléchisseurs plantaires d'une seule jambe à une fréquence de 50 Hz, 5 secondes de travail, 15 secondes de repos pendant 15 minutes. L'entraînement eu lieu 3 fois par semaine durant 8 semaines. Le groupe témoin ne suivit aucun entraînement particulier durant les 8 semaines. Un test identique au pré test fut repassé 4 semaines (test intermédiaire) après le début de l'entraînement (ou du non-entraînement
pour le groupe témoin). L'ensemble des mesures de force et de volume (post-test) fut repris après les 8 semaines d'entraînement (ou de non entraînement pour le groupe témoin). Une analyse comparative de la force et du volume des deux jambes avant et après la période de 8 semaines fut effectuée pour les deux groupes. Nous avons observé une augmentation significative de force concentrique et isométrique pour la jambe entraînée par électrostimulation du groupe expérimental. Aucun autre gain de force ne fut significatif pour les autres groupes. Aucun gain de volume ne fut significatif pour aucun groupe. Ces résultats laissent croire que l'électrostimulation peut améliorer la force d'une jambe et que cette technique pourrait être employée pour aider ceux ayant subi une rupture du tendon d'Achille. D'autres recherches sont nécessaires sur des personnes ayant subi une rupture du tendon d'Achille pour observer si un gain de volume serait possible et si les paramètres de stimulation pourraient être améliorés. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Électrostimulation, Rupture tendon d'Achille, Triceps sural, Force.
|
467 |
Étude du processus de coagulation-floculation du système montmorillonite-chitosane dans l'élimination de métaux de transitionAssaad, Elias January 2006 (has links) (PDF)
La présence de cations de métaux de transition en grandes concentrations dans les eaux présente des risques pour la santé humaine et pour l'environnement. Une des méthodes les plus utilisées pour les éliminer est la coagulation-floculation. Il s'agit d'une étape essentielle dans la chaîne de traitement des eaux. Cependant, l'utilisation de cette méthode pour traiter une eau de faible turbidité est difficile. Le recours à l'ajout de montmorillonite est d'un grand intérêt dans ce cas, car cela permet d'intensifier le processus de coagulation-floculation. Afin d'améliorer ce processus, l'ajout d'un floculant, non polluant, non toxique et biodégradable, s'avère nécessaire, d'où l'utilisation du chitosane qui joue deux rôles essentiels: il favorise à la fois la floculation et la complexation des cations des métaux de transition. Le présent travail a pour objet d'étudier l'élimination de trois cations de métaux de transition, à savoir le cobalt, le nickel et le cuivre, par coagulation-floculation du système montmorillonite-chitosane. L'élimination des cations métalliques et de la turbidité de l'eau dépend de plusieurs facteurs, dont le pH et le rapport massique (chitosane/montmorillonite). De même, les concentrations de cations, de chitosane et de montmorillonite peuvent, elles aussi, avoir un effet sur l'élimination de ces cations. Étant donné la multitude des facteurs pouvant influencer l'élimination de ces cations par la montmorillonite et par le chitosane, ainsi que la coagulation-floculation du système montmorillonite-chitosane, l'utilisation d'un plan factoriel s'est avérée nécessaire pour surmonter cette difficulté et déterminer les conditions favorables à une élimination optimale des trois cations étudiés. Les résultats obtenus prouvent qu'il peut exister une synergie entre le chitosane et la montmorillonite dans l'élimination des cations métalliques. La montmorillonite, dont l'efficacité a augmenté après modification chimique, et le chitosane ont montré une affinité différente pour chacun des trois cations métalliques. Cette affinité augmente dans l'ordre suivant: CO²⁺ < Ni²⁺ < Cu²⁺ . Une meilleure coagulation-floculation ne donne pas forcément une meilleure élimination des cations métalliques. Ainsi, l'élimination des cations dans une solution contenant 1 à 3 (g/L) de montmorillonite augmente avec l'augmentation du pH entre 3 et 7, tandis que la turbidité minimale est obtenue à un pH = 5,4 et pour un rapport massique (chitosane/montmorillonite) =0,6%. Ces conditions jugées optimales dans le cadre du présent travail peuvent faire l'objet d'une étude ultérieure plus poussée, visant la mise en oeuvre d'une technologie de démétallisation des eaux. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Chitosane, Montmorillonite, Coagulation, Floculation, Cations métalliques, Synergie.
|
468 |
Étude des interrelations entre les niveaux visuels et sonores électro-numériques dans le cadre de la production publicitaire télévisuelle contemporaine : iconicité et techniqueBoyer, Charles January 2006 (has links) (PDF)
Ce mémoire de maîtrise porte sur l'interrelation existante entre les images et les sons qui composent des productions culturelles électro-numériques télévisuelles. Cette recherche a pour but d'observer comment le traitement informatique influence le rendu d'une publicité télévisée. La méthodologie utilisée, qui repose sur une grille d'analyse de caractéristiques techniques et iconiques, permet l'observation de l'ensemble de la production et de son évolution temporelle. Le terme iconique inclut dans notre mémoire tout autant l'image que le son. S'ensuit une analyse de la composition de la publicité et de ses spécificités sémiologiques. Cela permet en dernier lieu de classifier la production selon son caractère d'homogénéité. Ces observations permettent une appréciation de chaque publicité et la critique des interrelations entre le niveau visuel et le niveau sonore présentes au sein de ces productions. Le corpus est constitué de quatre productions publicitaires créées par trois agences. Les publicités qui ont été privilégiées démontrent un degré manifeste de traitement électro-numérique. Cela implique que l'utilisation de logiciels informatiques y est perceptible. Ces productions contiennent au moins un élément visuel ou sonore qui sera d'origine électro-numérique. Elles ne présentent pas toutes le même degré de traitement ce qui permet l'observation d'un éventail de possibilités concernant l'utilisation de l'informatique en création. Préalablement à l'analyse du corpus, les sujets du monde publicitaire, des techniques de traitement de l'image et du son et de l'interdisciplinarité sont discutés. Ces thèmes sont importants dans l'analyse de notre corpus. L'hypothèse de cette recherche repose sur l'idée qu'un son, à un instant donné, doit faire preuve d'un traitement électro-numérique compatible au traitement de l'image simultanée. Si c'est le cas, le rendu global sera homogène et il n'y aura pas obstruction du message. Cependant, l'analyse du corpus démontre que selon la nature de l'objet de la publicité, diverses possibilités sont envisageables. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Publicité, Électronique, Numérique, Électro-numérique, Abstraction, Langages homogènes, Production culturelle.
|
469 |
Soubassements historiques du traitement de la dépressionAudrain, Catherine January 2006 (has links) (PDF)
Ce mémoire ne contient pas de résumé.
|
470 |
Étude de la pertinence et du coût d'opportunité de l'hormonothérapieCloutier, Martin 11 1900 (has links) (PDF)
Contexte : Utilisée depuis des décennies afin de contrebalancer les effets indésirables de la ménopause, l'hormonothérapie a connu un choc sans précédent lors de la publication d'une étude de la «Women's Health Initiative» en juillet 2002. Par la suite, nombreuses sont les femmes qui ont changé leur perception envers les hormones de remplacement et par conséquent leur consommation. Objectif : Utiliser ce choc pour quantifier les impacts d'avoir poursuivi ou cessé le traitement, par le biais d'incidence de pathologies. Méthodologie : Une revue de la littérature a été effectuée afin d'identifier les principales maladies associées aux hormones de remplacement. L'échantillon a ensuite été purifié pour éliminer les biais potentiels et déterminer une population représentative. Chaque femme a été classée en fonction de la médication utilisée et la décision de poursuivre ou de cesser l'hormonothérapie suite à la publication de l'étude de la WHI. Par la suite, des modèles de triples différences ont été appliqués afin d'isoler l'impact de l'abandon des hormones de remplacement. Les tests de Wilcoxon et du Chi carré ont respectivement été employés pour les variables continues et dichotomiques afin de calculer les différentes caractéristiques entre les cohortes. Résultats : Les femmes qui ont abandonné Premarin® ont vu augmenter leur risque de développer la maladie de l'Alzheimer, un accident vasculaire cérébral, un cancer du côlon, un cancer du sein, une thromboembolie veineuse, de l'ostéoporose ainsi que des fractures vertébrales et aux hanches, et ce, dans l'année qui suit l'abandon. Par contre, l'arrêt de Premarin® n'a occasionné aucun impact significatif sur l'incidence de l'anxiété, du cancer de l'endomètre, du cancer des ovaires, de la dépression, du diabète de type 2 et des évènements coronariens. Pour ce qui est des femmes qui ont abandonné Prempro®, elles s'exposent à une hausse des risques de contracter un cancer du sein. L'impact de l'abandon de Prempro® s'est révélé non significatif pour l'ensemble des autres maladies analysées. Discussion : Cette analyse sur des données de réclamation s'avère un complément intéressant aux études à double assignation aléatoire, car elle permet de voir l'impact de l'hormonothérapie sur la santé des gens en y intégrant les imperfections que la réalité occasionne.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : hormonothérapie, ménopause, économétrie, Prempro®, Premarin®
|
Page generated in 0.0958 seconds