351 |
Targeting Coronavirus disease 2019 (COVID-19) : structure of severe acute respiratory syndrome coronavirus 2 (SARS-CoV-2) RNA dependent RNA polymerase (RdRp) and searching for novel main protease (Mpro) inhibitorsZhang, Wenfa 01 March 2024 (has links)
Thèse ou mémoire avec insertion d'articles. / Selon l’université Johns Hopkins, plus de 600 millions de cas de coronavirus 2019 (COVID - 19) infectés par le SRAS-CoV-2 ont été signalés dans le monde depuis décembre 2019. La COVID-19 a causé une catastrophe énorme dans le monde, tuant plus de six millions de personnes. Il est donc essentiel de trouver des médicaments ou des vaccins efficaces. L'ARN polymérase ARN - dépendante (RdRp) joue un rôle clé dans la réplication du virus SARS-CoV-2. Nous avons constaté que la RdRp du SRAS-CoV-2 présentait 98,1% de similitude avec la RdRp du SRAS-CoV, alors que la similitude génomique de virus n'était que de 80%. Les alignements de séquences des coronavirus ont montré une homologie plus élevée entre les RdRps (60% - 98%) et une homologie plus faible entre les protéines Spike (24% - 77%). Les structures 3D de la RdRp et de la nucléotide transférase (NiRAN) ont été rapidement déterminées par modélisation à partir des structures correspondantes du SRAS. Dans le nouveau coronavirus, trois substitutions apparaissent dans le motif RdRp, ainsi qu'une liaison hydrogène supplémentaire, mais la structure des régions des doigts et du pouce est légèrement modifiée. La structure NiRAN est très conservatrice dans le COV. Les homologies de séquence et de structure entre RdRp et NiRAN sont donc supposées être des cibles médicamenteuses potentielles pour le traitement du COV émergent. La protéase principale (Mpro), également connue sous le nom de protéase 3-chymotrypsine-like (protéase 3CL), joue un rôle important dans le clivage des polyprotéines virales pour former des complexes de réplication fonctionnelle. Mpro est donc une cible pharmaceutique prometteuse pour le traitement de la COVID-19. Grâce à la modélisation moléculaire, à l'amarrage et à la détermination de l'activité protéasique, nous avons trouvé quatre nouveaux inhibiteurs ciblant le Mpro avec une affinité de liaison révélée par la moitié de la concentration maximale inhibitrice (IC50) et des constantes de dissociation (KD). Nos nouveaux inhibiteurs CB-21, CB-25, CP-1 et LC24-20 ont des CI50s de 14,88 µM (IC à 95%: 10,35 µM à 20,48 µM), 22,74 µM (IC à 95%: 13,01 µM à 38,16 µM), 18,54 µM (IC à 95%: 6,54 µM à 36,30 µM) et 32,87 µM (IC à 95%: 18,37 µM à 54,80 µM), respectivement. L'évaluation des interactions a montré que chaque inhibiteur avait des liaisons hydrogène ou des interactions hydrophobes avec des résidus importants, y compris les résidus catalytiques les plus importants: his41 et Cys145. La dose létale à 50% (DL50) des quatre inhibiteurs est beaucoup plus élevée que celle de l'inhibiteur bien connu de la Mpro, GC376, ce qui indique une faible toxicité. Ces quatre inhibiteurs peuvent servir de médicaments potentiels pour d'autres études in vitro et in vivo contre la COVID-19. Dans l'ensemble, pour RdRp et Mpro, nos résultats fournissent des informations utiles pour la recherche et le traitement de la COVID-19. / According to the data from Johns Hopkins University, more than 600 million Coronavirus Virus Disease 2019 (COVID-19) cases infected by SARS-CoV-2 has been reported worldwide since December 2019. COVID-19 brought huge disaster to the world with more than 6 million death cases. Therefore, finding efficient drugs or vaccines is of vital importance. RNA-dependent-RNA-polymerase (RdRp) plays a key role in SARS-CoV-2 viral replication. We found that SARS-COV-2 RdRp shares 98.1% of similarity with SARS-CoV RdRp while the genome similarity is only 80%. Sequence alignment of coronaviruses demonstrated higher identity among RdRps (60% – 98%) and lower identity among Spike proteins (24% – 77%). The RdRp and nucleotide-transferase (NiRAN) 3D-structures were quickly determined by modelling starting from the SARS counterpart structures. In COVID-19, three substitutions appeared in RdRp motifs with an additional hydrogen-bonding, but slight structural change shown in the finger and thumb domains. The NiRAN structure is well conserved in CoV. The sequence and structural homology among RdRp and NiRAN thus postulate them as potential drug targets to treat emerging CoVs. Main protease (Mpro), also called 3-chymotrypsin-like protease (3CL protease), plays an essential role in cleaving virus polyproteins for the functional replication complex. Therefore, Mpro is a promising drug target for COVID-19 therapy. Through molecular modelling, docking and a protease activity assay, we found four novel inhibitors targeting Mpro with the half maximal inhibitory concentration (IC50) and their binding affinities shown by the dissociation constants (KDs). Our new inhibitors CB-21, CB-25, CP-1 and LC24-20 have IC50s at 14.88 µM (95% Confidence Interval (95% CI): 10.35 µM to 20.48 µM), 22.74 µM (95% CI: 13.01 µM to 38.16 µM), 18.54µM (95% CI: 6.54 µM to 36.30 µM) and 32.87µM (95% CI: 18.37 µM to 54.80 µM)), respectively. The evaluation of interactions suggested that each inhibitor has a hydrogen bond or hydrophobic interactions with important residues, including the most essential catalytic residues: His41 and Cys145. All the r inhibitors have a much higher 50% lethal dose (LD50) compared with the wellknown Mpro inhibitor GC376, demonstrating its low toxicity. These four inhibitors can be potential drug candidates for further in vitro and in vivo studies against COVID-19.Overall, targeting RdRp and Mpro, our findings provide useful information for the research and treatment of COVID-19.
|
352 |
Modelage de contexte simplifié pour la compression basée sur la transformée en cosinus discrèteAuclair Beaudry, Jean-Sébastien January 2009 (has links)
Le manque grandissant de médecins spécialistes à l'extérieur des grands centres influe négativement sur' la qualité des soins reçus par les patients. Une solution possible à ce problème est la supervision des médecins généralistes en région par des spécialistes disponibles dans les grands centres. Cette supervision à distance nécessite le développement de technologies répondant aux besoins précis de celle-ci. Dans le cadre de ce projet de recherche, la transmission de l'image est considérée. En vue de développer un codec vidéo adéquat pour l'application dans le futur, le codec intra-image est étudié. Plus précisément, le but recherché est de simplifier et de rendre parallélisable le codec AGU 1 [PONOMARENKO et coll., 2005] sans en réduire les performances en deça des performances de JPEG2000 [SxoDRAS et coll., 2001]. Ces améliorations facilitent la réalisation matérielle du codec en réduisant la latence si critique aux applications de télésupervision. Pour accomplir ces objectifs, le modelage du contexte du codec AGU doit être modifié. La méthodologie proposée passe par l'implémentation du codec AGU, l'étude de la source de données et la modification du modelage de contexte. La modification en question est le remplacement de l'utilisation d'une méthode adaptative basée sur un arbre de conditions par un réseau de neurones. Au terme de cette recherche, le réseau de neurones utilisé comme modeleur de contexte s'avère être un succès. Une structure à neuf entrées et aucune couche cachée est utilisée et permet de rendre presque triviale l'opération de modelage du contexte en gardant des performances supérieures à JPEG2000 en moyenne. La performance est inférieure à JPEG2000 pour une seule image de test sur cinq. Dans le futur, il est possible d'étudier comment améliorer davantage ce codec intra-image à travers l'utilisation d'un meilleur réseau de neurones ou d'une transformée différente. Il est également souhaitable d'étudier comment faire évoluer le codec en un codec inter-image.
|
353 |
Prescription et usages du Subutex dans les parcours des toxicomanes en FranceGuichard, Anne January 2005 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
354 |
Traitement auditif, traitement phonologique et acquisition de la morphologie dans la dyslexie développementaleSt-Pierre, Marie-Catherine January 2006 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
355 |
La persévérance en traitement des hommes toxicomanes judiciarisés : liens avec la personnalité délinquante, la motivation au changement et l'engagement en traitementTétrault, Myriane January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
356 |
Outils de traitement d'images adaptés au traitement d'images omnidirectionnellesBigot-Marchand, Stéphanie 15 October 2008 (has links) (PDF)
Cette thèse est consacrée au développement d'outils de traitement adaptés aux images omnidirectionnelles grâce à la "sphère équivalente". En effet, l'utilisation directe de méthodes classiques (c'est-à-dire appropriées aux images réelles) sur des images omnidirectionnelles introduit des erreurs car elle ne prend pas en considération les distorsions introduites par le miroir. Projeter les images omnidirectionnelles sur cette sphère offre l'avantage de pouvoir effectuer les différents traitements sur un espace plus uniforme. Dans un premier temps, nous rappelons le principe de la vision omnidirectionnelle, puis nous nous attardons sur un capteur en particulier, celui composé d'une caméra observant un miroir parabolique. Nous donnons ensuite les éléments de démonstration pour justifier l'existence de la "sphère équivalente". Dans un second temps, nous présentons différents outils mathématiques (harmoniques sphériques, convolution sphérique...) nécessaires au développement de nos méthodes sphériques. Nous proposons ensuite la construction de plusieurs traitements bas-niveaux adaptés aux images sphériques : débruitage et détection de contours. Ces différentes méthodes ont fait l'objet de tests afin de déterminer leurs avantages par rapport aux "méthodes classiques" de traitements d'images omnidirectionnelles. Ces comparaisons ont mis en évidence l'avantage de ces "méthodes sphériques" qui offrent un traitement uniforme sur toute l'image.
|
357 |
Une première vague de potentiels d'action, une première vague idée de la scène visuelle - rôle de l'asynchronie dans le traitement rapide de l'information visuelle.Vanrullen, Rufin 26 September 2000 (has links) (PDF)
La durée d'analyse d'une scène visuelle complexe constitue une contrainte biologique fondamentale pour les modèles théoriques du traitement neuronal de l'information visuelle. La mesure d'indices psychophysiques et électrophysiologiques lors d'une tâche de catégorisation visuelle rapide permet de démontrer que le système visuel humain transforme une scène visuelle complexe en une représentation de haut niveau, portant une valeur sémantique ou comportementale, en seulement 150 ms. Ce résultat est indépendant du caractère naturel ou artificiel de la catégorie cible utilisée. L'activité cérébrale enregistrée avant 150 ms reflète les propriétés physiques du stimulus, et n'est pas corrélée avec le comportement du sujet. D'un point de vue théorique, quels mécanismes neuronaux peuvent sous-tendre une telle capacité?<br />L'architecture hiérarchique du système visuel des primates et les délais de conduction électrique suggèrent que l'information visuelle circule majoritairement vers l'avant, et qu' un seul potentiel d'action par neurone pourra coder l'information entre 2 étapes successives. Ceci exclut le codage par fréquence d'émission de potentiels d'action, classiquement utilisé par les modèles de la vision. J'illustre cependant le fait que l'information visuelle peut être encodée par les dates relatives d'émission des potentiels d'action sur une population neuronale, l'information la plus saillante étant toujours représentée par les premières décharges. La structure temporelle de la première vague de potentiels d'action générée par la rétine en réponse à une stimulation visuelle peut porter explicitement l'information. Cette vague se propageant à travers le système est régénérée à chaque étape de traitement, et sa structure temporelle peut être modifiée par (i) la sélectivité des neurones corticaux, (ii) des interactions latérales et (iii) des influences attentionnelles provenant d'aires cérébrales centrales.
|
358 |
Conversion de voix pour la synthèse de la paroleEN-NAJJARY, Taoufik 08 April 2005 (has links) (PDF)
Cette thèse s'inscrit dans le cadre des travaux de recherche entrepris par la division R&D de France Telecom dans le domaine de la synthèse de la parole à partir du texte. Elle concerne plus particulièrement le domaine de la conversion de voix, technologie visant à transformer le signal de parole d'un locuteur de référence dit locuteur source, de telle façon qu'il semble, à l'écoute, avoir été prononcé par un autre locuteur cible, identifié au préalable, dit locuteur cible. Le but de cette thèse est donc la diversification de voix de synthèse via la conception et le développement d'un système de conversion de voix de haute qualité. Les approches étudiées dans cette thèse se basent sur des techniques de classification par GMM (Gaussian Mixture Model) et une modélisation du signal de parole par HNM (Harmonic plus Noise Model). Dans un premier temps, l'influence de la paramétrisation spectrale sur la performance de conversion de voix par GMM est analysée. Puis, la dépendance entre l'enveloppe spectrale et la fréquence fondamentale est mise en évidence. Deux méthodes de conversion exploitant cette dépendance sont alors proposées et évaluées favorablement par rapport à l'état de l'art existant. Les problèmes liés à la mise en oeuvre de la conversion de voix sont également abordés. Le premier problème est la complexité élevée du processus de conversion par rapport au processus de synthèse lui-même (entre 1,5 et 2 fois le coût de calcul de la synthèse elle-même). Pour cela, une technique de conversion a été développée et conduit à une réduction de la complexité d'un facteur compris entre 45 et 130. Le deuxième problème concerne la mise en oeuvre de la conversion de voix lorsque les corpus d'apprentissage source et cible sont différents. Une méthodologie a ainsi été proposée rendant possible l'apprentissage de la fonction de transformation à partir d'enregistrements quelconques.
|
359 |
Apprentissage automatique et compréhension dans le cadre d'un dialogue homme-machine téléphonique à initiative mixteServan, Christophe 10 December 2008 (has links) (PDF)
Les systèmes de dialogues oraux Homme-Machine sont des interfaces entre un utilisateur et des services. Ces services sont présents sous plusieurs formes : services bancaires, systèmes de réservations (de billets de train, d'avion), etc. Les systèmes de dialogues intègrent de nombreux modules notamment ceux de reconnaissance de la parole, de compréhension, de gestion du dialogue et de synthèse de la parole. Le module qui concerne la problématique de cette thèse est celui de compréhension de la parole. Le processus de compréhension de la parole est généralement séparé du processus de transcription. Il s'agit, d'abord, de trouver la meilleure hypothèse de reconnaissance puis d'appliquer un processus de compréhension. L'approche proposée dans cette thèse est de conserver l'espace de recherche probabiliste tout au long du processus de compréhension en l'enrichissant à chaque étape. Cette approche a été appliquée lors de la campagne d'évaluation MEDIA. Nous montrons l'intérêt de notre approche par rapport à l'approche classique. En utilisant différentes sorties du module de RAP sous forme de graphe de mots, nous montrons que les performances du décodage conceptuel se dégradent linéairement en fonction du taux d'erreurs sur les mots (WER). Cependant nous montrons qu'une approche intégrée, cherchant conjointement la meilleure séquence de mots et de concepts, donne de meilleurs résultats qu'une approche séquentielle. Dans le souci de valider notre approche, nous menons des expériences sur le corpus MEDIA dans les mêmes conditions d'évaluation que lors de la campagne MEDIA. Il s'agit de produire des interprétations sémantiques à partir des transcriptions sans erreur. Les résultats montrent que les performances atteintes par notre modèle sont au niveau des performances des systèmes ayant participé à la campagne d'évaluation. L'étude détaillée des résultats obtenus lors de la campagne MEDIA nous permet de montrer la corrélation entre, d'une part, le taux d'erreur d'interprétation et, d'autre part, le taux d'erreur mots de la reconnaissance de la parole, la taille du corpus d'apprentissage, ainsi que l'ajout de connaissance a priori aux modèles de compréhension. Une analyse d'erreurs montre l'intérêt de modifier les probabilités des treillis de mots avec des triggers, un modèle cache ou d'utiliser des règles arbitraires obligeant le passage dans une partie du graphe et s'appliquant sur la présence d'éléments déclencheurs (mots ou concepts) en fonction de l'historique. On présente les méthodes à base de d'apprentissage automatique comme nécessairement plus gourmandes en terme de corpus d'apprentissage. En modifiant la taille du corpus d'apprentissage, on peut mesurer le nombre minimal ainsi que le nombre optimal de dialogues nécessaires à l'apprentissage des modèles de langages conceptuels du système de compréhension. Des travaux de recherche menés dans cette thèse visent à déterminer quel est la quantité de corpus nécessaire à l'apprentissage des modèles de langages conceptuels à partir de laquelle les scores d'évaluation sémantiques stagnent. Une corrélation est établie entre la taille de corpus nécessaire pour l'apprentissage et la taille de corpus afin de valider le guide d'annotations. En effet, il semble, dans notre cas de l'évaluation MEDIA, qu'il ait fallu sensiblement le même nombre d'exemple pour, d'une part, valider l'annotation sémantique et, d'autre part, obtenir un modèle stochastique " de qualité " appris sur corpus. De plus, en ajoutant des données a priori à nos modèles stochastiques, nous réduisons de manière significative la taille du corpus d'apprentissage nécessaire pour atteindre les même scores du système entièrement stochastique (près de deux fois moins de corpus à score égal). Cela nous permet de confirmer que l'ajout de règles élémentaires et intuitives (chiffres, nombres, codes postaux, dates) donne des résultats très encourageants. Ce constat a mené à la réalisation d'un système hybride mêlant des modèles à base de corpus et des modèles à base de connaissance. Dans un second temps, nous nous appliquons à adapter notre système de compréhension à une application de dialogue simple : un système de routage d'appel. La problématique de cette tâche est le manque de données d'apprentissage spécifiques au domaine. Nous la résolvons en partie en utilisant divers corpus déjà à notre disposition. Lors de ce processus, nous conservons les données génériques acquises lors de la campagne MEDIA et nous y intégrons les données spécifiques au domaine. Nous montrons l'intérêt d'intégrer une tâche de classification d'appel dans un processus de compréhension de la parole spontanée. Malheureusement, nous disposons de très peu de données d'apprentissage relatives au domaine de la tâche. En utilisant notre approche intégrée de décodage conceptuel, conjointement à un processus de filtrage, nous proposons une approche sous forme de sac de mots et de concepts. Cette approche exploitée par un classifieur permet d'obtenir des taux de classification d'appels encourageants sur le corpus de test, alors que le WER est assez élevé. L'application des méthodes développées lors de la campagne MEDIA nous permet d'améliorer la robustesse du processus de routage d'appels.
|
360 |
Traitement du signal et images LC/MS pour la recherche de biomarqueursLi-Thiao-Té, Sébastien 26 June 2009 (has links) (PDF)
La spectrométrie de masse LC/MS est une technique de chimie analytique très prometteuse pour la recherche de biomarqueurs protéiques. Cette thèse aborde la correction de certaines distortions : l'alignement des images LC/MS et la normalisation des intensités. Nous étudions ensuite un détecteur de signaux a contrario et calculons la limite de détection.
|
Page generated in 0.081 seconds