351 |
La fraction amino-terminale du peptide natriurétique de type B pour prédire le devenir des patients ayant une sténose aortique à bas débit : sa supériorité au peptide natriurétique de type B et son rôle pour aider la décision thérapeutiqueAnnabi, Mohamed Salah 25 January 2019 (has links)
La stratégie thérapeutique actuelle pour la sténose aortique à bas débit (SA-BD) n’intègre pas la gradation de la sévérité de la maladie du ventricule gauche (SMVG) pour sélectionner les meilleurs candidats au remplacement valvulaire aortique (RVA). MÉTHODE La SMVG a été gradée par le ratio d’activation du peptide natriurétique de type-B (BNP-ratio) et par celui de la fraction N-terminale de son précurseur (NT-proBNP-ratio). Leurs performances pronostiques ont été étudiées séparément puis en comparaison directe (sous-population avec les deux biomarqueurs). Le meilleur biomarqueur a été utilisé pour étudier le bénéfice cardiovasculaire du RVA en fonction de la SMVG. RÉSULTATS Le NT-proBNP-ratio prédisait la mortalité à 12 et 36 mois avec une aire sous la courbe d’efficacité du récepteur (ASCER) à 0.67±0.04 et 0.66±0.05, respectivement (p=0.001). Il a été indépendamment corrélé à la mortalité (risque relatif ajusté [RRa]=1.39, [1.11-1.74], p=0.004). Le BNP-ratio était significativement discriminant pour la mortalité à 12 mois seulement et tendait à prédire le temps au décès en utilisant un seuil>7.4 (RRa=2.14 [1.00- 4.58], p=0.05). La supériorité du NT-proBNP-ratio a été vérifiée en comparaison directe: i) les ASCER pour la mortalité à 12 et 36 mois étaient supérieures (p<0.009); ii) le NT-proBNP-ratio, contrairement au BNP-ratio, prédisait indépendamment la mortalité; iii) il améliorait significativement l’efficacité prédictive d’un modèle de base (Mb) incluant l’âge, le sexe, la présence de SA réellement sévère (SARS), l’euroSCORE et le RVA (p=0.0003); iv) l’index de reclassification nette associé au NT-proBNP-ratio était de 0.71 (p=0.008) contre 0.38 (p=0.15) pour le BNP-ratio. Enfin, le NTproBNP-ratio>11 prédisait un grand bénéfice de survie par RVA (RRa=0.52 [0.31-0.85], p=0.009), tandis qu’avec NT-proBNP-ratio<11, la survie était excellente sans RVA durant la première année. CONCLUSION: Cette étude démontre pour la première fois que la gradation de la SMVG par le NT-proBNP-ratio, et pas le BNPratio, a une grande valeur pronostique dans la SA-BD et peut guider la stratégie thérapeutique / Background: In classical low-flow, low gradient aortic stenosis (CLF-AS i.e. with low left ventricular [LV] ejection fraction), aortic valve intervention (AVI) is recommended if true severe AS (TSAS) is confirmed. However, there is little evidence on the prognostic values of the clinical activation ratio of B-type natriuretic peptide (BNP-ratio) versus aminoterminal-proBNP (NT-proBNP-ratio) as surrogates of LV impairment to risk-stratify the patients. Methods: BNP and NT-proBNP-ratios were calculated by dividing the actual serum level by the upper predicted value for age and sex. Their prognostic values were studied using receiver-operating characteristic (ROC) curves and Cox proportional hazards regression adjusting for TSAS, initial treatment (AVI or conservative management [ConsRx]), age, sex and the euroSCORE (model-1), and taking time to death as an endpoint. The survival benefit of AVI according to the degree of LV impairment was studied using the best biomarker. Results: BNP-ratio significantly predicted one-year (area under the ROC curve [AUC]) 0.62±0.04, p=0.026) but not three-year mortality, and a BNP-ratio>7.4 tended to predict time to death (adjusted HR=2.14 [1.00-4.58], p=0.05). NT-proBNP-ratio significantly predicted one and three-year mortality (AUC=0.67±0.04 and 0.66±0.05, both p=0.001), and independently predicted time to death (HR=1.39 /per one increment of LogNT-proBNP-ratio, [1.11-1.74], p=0.004). In a head-to-head comparison, the AUCs for one and three-year mortality were higher with NT-proBNP-ratio versus BNP-ratio (p<0.009). NT-proBNP-ratio but not BNP-ratio independently predicted mortality and significantly improved model-1 (Likelihood ratio test Chi2=15.953, p=0.0003). The category-free net reclassification index of NT-proBNP-ratio when added to model-1 was 0.71 (p=0.008) versus 0.38 (p=0.15) for BNP-ratio. Finally, in patients with NTproBNP-ratio >11 the adjusted HR of death associated with AVI was 0.52 ([0.31-0.85], p=0.009). On the other hand, NT-proBNP-ratio <11 identified patients (54% with peudosevere AS) in whom short-term event-free survival was excellent under conservative management. Conclusion: NT-proBNP-ratio is a powerful independent predictor of death and should be preferred over BNPratio to risk-stratify CLF-AS patients. The assessment of LV function impairment using NT-proBNP-ratio has important clinical implications and should be complementary to the determination of true AS severity.
|
352 |
Modelage de contexte simplifié pour la compression basée sur la transformée en cosinus discrèteAuclair Beaudry, Jean-Sébastien January 2009 (has links)
Le manque grandissant de médecins spécialistes à l'extérieur des grands centres influe négativement sur' la qualité des soins reçus par les patients. Une solution possible à ce problème est la supervision des médecins généralistes en région par des spécialistes disponibles dans les grands centres. Cette supervision à distance nécessite le développement de technologies répondant aux besoins précis de celle-ci. Dans le cadre de ce projet de recherche, la transmission de l'image est considérée. En vue de développer un codec vidéo adéquat pour l'application dans le futur, le codec intra-image est étudié. Plus précisément, le but recherché est de simplifier et de rendre parallélisable le codec AGU 1 [PONOMARENKO et coll., 2005] sans en réduire les performances en deça des performances de JPEG2000 [SxoDRAS et coll., 2001]. Ces améliorations facilitent la réalisation matérielle du codec en réduisant la latence si critique aux applications de télésupervision. Pour accomplir ces objectifs, le modelage du contexte du codec AGU doit être modifié. La méthodologie proposée passe par l'implémentation du codec AGU, l'étude de la source de données et la modification du modelage de contexte. La modification en question est le remplacement de l'utilisation d'une méthode adaptative basée sur un arbre de conditions par un réseau de neurones. Au terme de cette recherche, le réseau de neurones utilisé comme modeleur de contexte s'avère être un succès. Une structure à neuf entrées et aucune couche cachée est utilisée et permet de rendre presque triviale l'opération de modelage du contexte en gardant des performances supérieures à JPEG2000 en moyenne. La performance est inférieure à JPEG2000 pour une seule image de test sur cinq. Dans le futur, il est possible d'étudier comment améliorer davantage ce codec intra-image à travers l'utilisation d'un meilleur réseau de neurones ou d'une transformée différente. Il est également souhaitable d'étudier comment faire évoluer le codec en un codec inter-image.
|
353 |
Prescription et usages du Subutex dans les parcours des toxicomanes en FranceGuichard, Anne January 2005 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
354 |
Traitement auditif, traitement phonologique et acquisition de la morphologie dans la dyslexie développementaleSt-Pierre, Marie-Catherine January 2006 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
355 |
La persévérance en traitement des hommes toxicomanes judiciarisés : liens avec la personnalité délinquante, la motivation au changement et l'engagement en traitementTétrault, Myriane January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
356 |
Outils de traitement d'images adaptés au traitement d'images omnidirectionnellesBigot-Marchand, Stéphanie 15 October 2008 (has links) (PDF)
Cette thèse est consacrée au développement d'outils de traitement adaptés aux images omnidirectionnelles grâce à la "sphère équivalente". En effet, l'utilisation directe de méthodes classiques (c'est-à-dire appropriées aux images réelles) sur des images omnidirectionnelles introduit des erreurs car elle ne prend pas en considération les distorsions introduites par le miroir. Projeter les images omnidirectionnelles sur cette sphère offre l'avantage de pouvoir effectuer les différents traitements sur un espace plus uniforme. Dans un premier temps, nous rappelons le principe de la vision omnidirectionnelle, puis nous nous attardons sur un capteur en particulier, celui composé d'une caméra observant un miroir parabolique. Nous donnons ensuite les éléments de démonstration pour justifier l'existence de la "sphère équivalente". Dans un second temps, nous présentons différents outils mathématiques (harmoniques sphériques, convolution sphérique...) nécessaires au développement de nos méthodes sphériques. Nous proposons ensuite la construction de plusieurs traitements bas-niveaux adaptés aux images sphériques : débruitage et détection de contours. Ces différentes méthodes ont fait l'objet de tests afin de déterminer leurs avantages par rapport aux "méthodes classiques" de traitements d'images omnidirectionnelles. Ces comparaisons ont mis en évidence l'avantage de ces "méthodes sphériques" qui offrent un traitement uniforme sur toute l'image.
|
357 |
Une première vague de potentiels d'action, une première vague idée de la scène visuelle - rôle de l'asynchronie dans le traitement rapide de l'information visuelle.Vanrullen, Rufin 26 September 2000 (has links) (PDF)
La durée d'analyse d'une scène visuelle complexe constitue une contrainte biologique fondamentale pour les modèles théoriques du traitement neuronal de l'information visuelle. La mesure d'indices psychophysiques et électrophysiologiques lors d'une tâche de catégorisation visuelle rapide permet de démontrer que le système visuel humain transforme une scène visuelle complexe en une représentation de haut niveau, portant une valeur sémantique ou comportementale, en seulement 150 ms. Ce résultat est indépendant du caractère naturel ou artificiel de la catégorie cible utilisée. L'activité cérébrale enregistrée avant 150 ms reflète les propriétés physiques du stimulus, et n'est pas corrélée avec le comportement du sujet. D'un point de vue théorique, quels mécanismes neuronaux peuvent sous-tendre une telle capacité?<br />L'architecture hiérarchique du système visuel des primates et les délais de conduction électrique suggèrent que l'information visuelle circule majoritairement vers l'avant, et qu' un seul potentiel d'action par neurone pourra coder l'information entre 2 étapes successives. Ceci exclut le codage par fréquence d'émission de potentiels d'action, classiquement utilisé par les modèles de la vision. J'illustre cependant le fait que l'information visuelle peut être encodée par les dates relatives d'émission des potentiels d'action sur une population neuronale, l'information la plus saillante étant toujours représentée par les premières décharges. La structure temporelle de la première vague de potentiels d'action générée par la rétine en réponse à une stimulation visuelle peut porter explicitement l'information. Cette vague se propageant à travers le système est régénérée à chaque étape de traitement, et sa structure temporelle peut être modifiée par (i) la sélectivité des neurones corticaux, (ii) des interactions latérales et (iii) des influences attentionnelles provenant d'aires cérébrales centrales.
|
358 |
Conversion de voix pour la synthèse de la paroleEN-NAJJARY, Taoufik 08 April 2005 (has links) (PDF)
Cette thèse s'inscrit dans le cadre des travaux de recherche entrepris par la division R&D de France Telecom dans le domaine de la synthèse de la parole à partir du texte. Elle concerne plus particulièrement le domaine de la conversion de voix, technologie visant à transformer le signal de parole d'un locuteur de référence dit locuteur source, de telle façon qu'il semble, à l'écoute, avoir été prononcé par un autre locuteur cible, identifié au préalable, dit locuteur cible. Le but de cette thèse est donc la diversification de voix de synthèse via la conception et le développement d'un système de conversion de voix de haute qualité. Les approches étudiées dans cette thèse se basent sur des techniques de classification par GMM (Gaussian Mixture Model) et une modélisation du signal de parole par HNM (Harmonic plus Noise Model). Dans un premier temps, l'influence de la paramétrisation spectrale sur la performance de conversion de voix par GMM est analysée. Puis, la dépendance entre l'enveloppe spectrale et la fréquence fondamentale est mise en évidence. Deux méthodes de conversion exploitant cette dépendance sont alors proposées et évaluées favorablement par rapport à l'état de l'art existant. Les problèmes liés à la mise en oeuvre de la conversion de voix sont également abordés. Le premier problème est la complexité élevée du processus de conversion par rapport au processus de synthèse lui-même (entre 1,5 et 2 fois le coût de calcul de la synthèse elle-même). Pour cela, une technique de conversion a été développée et conduit à une réduction de la complexité d'un facteur compris entre 45 et 130. Le deuxième problème concerne la mise en oeuvre de la conversion de voix lorsque les corpus d'apprentissage source et cible sont différents. Une méthodologie a ainsi été proposée rendant possible l'apprentissage de la fonction de transformation à partir d'enregistrements quelconques.
|
359 |
Apprentissage automatique et compréhension dans le cadre d'un dialogue homme-machine téléphonique à initiative mixteServan, Christophe 10 December 2008 (has links) (PDF)
Les systèmes de dialogues oraux Homme-Machine sont des interfaces entre un utilisateur et des services. Ces services sont présents sous plusieurs formes : services bancaires, systèmes de réservations (de billets de train, d'avion), etc. Les systèmes de dialogues intègrent de nombreux modules notamment ceux de reconnaissance de la parole, de compréhension, de gestion du dialogue et de synthèse de la parole. Le module qui concerne la problématique de cette thèse est celui de compréhension de la parole. Le processus de compréhension de la parole est généralement séparé du processus de transcription. Il s'agit, d'abord, de trouver la meilleure hypothèse de reconnaissance puis d'appliquer un processus de compréhension. L'approche proposée dans cette thèse est de conserver l'espace de recherche probabiliste tout au long du processus de compréhension en l'enrichissant à chaque étape. Cette approche a été appliquée lors de la campagne d'évaluation MEDIA. Nous montrons l'intérêt de notre approche par rapport à l'approche classique. En utilisant différentes sorties du module de RAP sous forme de graphe de mots, nous montrons que les performances du décodage conceptuel se dégradent linéairement en fonction du taux d'erreurs sur les mots (WER). Cependant nous montrons qu'une approche intégrée, cherchant conjointement la meilleure séquence de mots et de concepts, donne de meilleurs résultats qu'une approche séquentielle. Dans le souci de valider notre approche, nous menons des expériences sur le corpus MEDIA dans les mêmes conditions d'évaluation que lors de la campagne MEDIA. Il s'agit de produire des interprétations sémantiques à partir des transcriptions sans erreur. Les résultats montrent que les performances atteintes par notre modèle sont au niveau des performances des systèmes ayant participé à la campagne d'évaluation. L'étude détaillée des résultats obtenus lors de la campagne MEDIA nous permet de montrer la corrélation entre, d'une part, le taux d'erreur d'interprétation et, d'autre part, le taux d'erreur mots de la reconnaissance de la parole, la taille du corpus d'apprentissage, ainsi que l'ajout de connaissance a priori aux modèles de compréhension. Une analyse d'erreurs montre l'intérêt de modifier les probabilités des treillis de mots avec des triggers, un modèle cache ou d'utiliser des règles arbitraires obligeant le passage dans une partie du graphe et s'appliquant sur la présence d'éléments déclencheurs (mots ou concepts) en fonction de l'historique. On présente les méthodes à base de d'apprentissage automatique comme nécessairement plus gourmandes en terme de corpus d'apprentissage. En modifiant la taille du corpus d'apprentissage, on peut mesurer le nombre minimal ainsi que le nombre optimal de dialogues nécessaires à l'apprentissage des modèles de langages conceptuels du système de compréhension. Des travaux de recherche menés dans cette thèse visent à déterminer quel est la quantité de corpus nécessaire à l'apprentissage des modèles de langages conceptuels à partir de laquelle les scores d'évaluation sémantiques stagnent. Une corrélation est établie entre la taille de corpus nécessaire pour l'apprentissage et la taille de corpus afin de valider le guide d'annotations. En effet, il semble, dans notre cas de l'évaluation MEDIA, qu'il ait fallu sensiblement le même nombre d'exemple pour, d'une part, valider l'annotation sémantique et, d'autre part, obtenir un modèle stochastique " de qualité " appris sur corpus. De plus, en ajoutant des données a priori à nos modèles stochastiques, nous réduisons de manière significative la taille du corpus d'apprentissage nécessaire pour atteindre les même scores du système entièrement stochastique (près de deux fois moins de corpus à score égal). Cela nous permet de confirmer que l'ajout de règles élémentaires et intuitives (chiffres, nombres, codes postaux, dates) donne des résultats très encourageants. Ce constat a mené à la réalisation d'un système hybride mêlant des modèles à base de corpus et des modèles à base de connaissance. Dans un second temps, nous nous appliquons à adapter notre système de compréhension à une application de dialogue simple : un système de routage d'appel. La problématique de cette tâche est le manque de données d'apprentissage spécifiques au domaine. Nous la résolvons en partie en utilisant divers corpus déjà à notre disposition. Lors de ce processus, nous conservons les données génériques acquises lors de la campagne MEDIA et nous y intégrons les données spécifiques au domaine. Nous montrons l'intérêt d'intégrer une tâche de classification d'appel dans un processus de compréhension de la parole spontanée. Malheureusement, nous disposons de très peu de données d'apprentissage relatives au domaine de la tâche. En utilisant notre approche intégrée de décodage conceptuel, conjointement à un processus de filtrage, nous proposons une approche sous forme de sac de mots et de concepts. Cette approche exploitée par un classifieur permet d'obtenir des taux de classification d'appels encourageants sur le corpus de test, alors que le WER est assez élevé. L'application des méthodes développées lors de la campagne MEDIA nous permet d'améliorer la robustesse du processus de routage d'appels.
|
360 |
Traitement du signal et images LC/MS pour la recherche de biomarqueursLi-Thiao-Té, Sébastien 26 June 2009 (has links) (PDF)
La spectrométrie de masse LC/MS est une technique de chimie analytique très prometteuse pour la recherche de biomarqueurs protéiques. Cette thèse aborde la correction de certaines distortions : l'alignement des images LC/MS et la normalisation des intensités. Nous étudions ensuite un détecteur de signaux a contrario et calculons la limite de détection.
|
Page generated in 0.0494 seconds