Spelling suggestions: "subject:"agrégation"" "subject:"aggrégation""
1 |
Les agrégats de la protéine p53 comportent certaines propriétés des prionsForget, Karolyn January 2013 (has links)
Les maladies à prion sont un cas unique de pathologie où l’agent infectieux, le prion, est une protéine. La protéine prion possède plusieurs caractéristiques qui la rendent particulière vis-à-vis d’autres protéines cellulaires, telles que sa capacité à agréger et à transmettre sa conformation agrégée à la protéine soluble ainsi que la transmission des agrégats de la protéine d’une cellule à l’autre et d’un organisme à un autre. De plus en plus, on associe l’agrégation de protéines à différentes maladies humaines, comme les maladies d’Alzheimer, de Parkinson et le diabète de type 2. Certaines protéines impliquées dans ces pathologies font partie des prionoïdes, une catégorie réservée aux protéines aux propriétés agrégatives qui démontrent certaines des caractéristiques associées aux prions. Récemment, la protéine p53, un facteur de transcription fortement impliqué dans le cancer, a été montrée comme étant capable d’agréger in vitro. Une accumulation de la protéine a également été observée dans des cellules tumorales, laissant croire que l’agrégation de p53 se produit également in vivo, et pourrait avoir un rôle dans le développement du cancer. Ces observations portent à croire que la protéine p53 pourrait elle aussi faire partie des prionoïdes. L’objectif de cette étude est donc de montrer que la protéine p53 possède certaines des caractéristiques des prions. Pour ce faire, la protéine p53 recombinante a été produite pour former des agrégats de p53 et ces agrégats ont été utilisés pour déterminer si la protéine démontre des caractères prionoïdes. Les résultats obtenus montrent une agrégation in vitro de p53WT pleine longueur ainsi que de sa forme tronquée, p53C. De plus, des cellules en culture sont capables d’internaliser ces agrégats, qui co-agrègent ensuite avec la protéine p53 endogène de ces cellules. Enfin, nos résultats montrent clairement que l’internalisation des agrégats par les cellules se fait par la macropinocytose. Nous avons donc réussi à prouver que la protéine p53 agit comme un prion puisqu’elle s’agrège spontanément, ses agrégats sont internalisés par des cellules en culture et sont capables de co-agréger avec la protéine soluble.
|
2 |
Locomotion et répartition spatiale chez le bivalve d'eau douce Elliptio complanataAmyot, Jean-Pierre January 1998 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
3 |
Caractérisation des agrégats érythrocytaires par ultrasons : étude statistique du signal rétrodiffuséDaronat, Michel January 2001 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
4 |
Implication des protéines kinases C dans l'activation et la fonction plaquettaireYacoub, Daniel January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
5 |
Prévision de série issue de l'agrégation contemporaine : comparaison entre l'approche agrégée et désagrégéeMarcil, Philippe January 2007 (has links) (PDF)
Nous étudions la différence des erreurs de prévisions entre une représentation agrégée et
désagrégée lorsque l'on s'intéresse à la prévision de la série agrégée. Pour ce faire, nous développons un modèle théorique qui étudie les erreurs de prévisions d'une représentation agrégée et désagrégée en unissant les théories de différents auteurs dans un même cadre analytique. Le modèle que nous avons développé démontre que la présence de racine commune est essentielle, mais est une condition non suffisante pour que le modèle agrégé ait une erreur de prévision plus faible que le modèle désagrégé. De plus, les simulations démontrent que la présence de racines communes aide à faire diminuer l'écart des erreurs de prévisions entre une représentation agrégée et désagrégée.
|
6 |
Filtrage et agrégation d'informations vitales relatives à des entités / Filtering and aggregating vital information related to entitiesAbbes, Rafik 11 December 2015 (has links)
Aujourd'hui, les bases de connaissances telles que Wikipedia et DBpedia représentent les sources principales pour accéder aux informations disponibles sur une grande variété d'entités (une entité est une chose qui peut être distinctement identifiée par exemple une personne, une organisation, un produit, un événement, etc.). Cependant, la mise à jour de ces sources avec des informations nouvelles en rapport avec une entité donnée se fait manuellement par des contributeurs et avec un temps de latence important en particulier si cette entité n'est pas populaire. Concevoir un système qui analyse les documents dès leur publication sur le Web pour filtrer les informations importantes relatives à des entités pourra sans doute accélérer la mise à jour de ces bases de connaissances. Dans cette thèse, nous nous intéressons au filtrage d'informations pertinentes et nouvelles, appelées vitales, relatives à des entités. Ces travaux rentrent dans le cadre de la recherche d'information mais visent aussi à enrichir les techniques d'ingénierie de connaissances en aidant à la sélection des informations à traiter. Nous souhaitons répondre principalement aux deux problématiques suivantes: (1) Comment détecter si un document est vital (c.à.d qu'il apporte une information pertinente et nouvelle) par rapport à une entité donnée? et (2) Comment extraire les informations vitales à partir de ces documents qui serviront comme référence pour mettre à jour des bases de connaissances? Concernant la première problématique, nous avons proposé deux méthodes. La première proposition est totalement supervisée. Elle se base sur un modèle de langue de vitalité. La deuxième proposition mesure la fraîcheur des expressions temporelles contenues dans un document afin de décider de sa vitalité. En ce qui concerne la deuxième problématique relative à l'extraction d'informations vitales à partir des documents vitaux, nous avons proposé une méthode qui sélectionne les phrases comportant potentiellement ces informations vitales, en nous basant sur la présence de mots déclencheurs récupérés automatiquement à partir de la connaissance déjà représentée dans la base de connaissances (comme la description d'entités similaires).L'évaluation des approches proposées a été effectuée dans le cadre de la campagne d'évaluation internationale TREC sur une collection de 1.2 milliard de documents avec différents types d'entités (personnes, organisations, établissements et événements). Pour les approches de filtrage de documents vitaux, nous avons mené nos expérimentations dans le cadre de la tâche "Knwoledge Base Acceleration (KBA)" pour les années 2013 et 2014. L'exploitation des expressions temporelles dans le document a permis d'obtenir de bons résultats dépassant le meilleur système proposé dans la tâche KBA 2013. Pour évaluer les contributions concernant l'extraction des informations vitales relatives à des entités, nous nous sommes basés sur le cadre expérimental de la tâche "Temporal Summarization (TS)". Nous avons montré que notre approche permet de minimiser le temps de latence des mises à jour de bases de connaissances. / Nowadays, knowledge bases such as Wikipedia and DBpedia are the main sources to access information on a wide variety of entities (an entity is a thing that can be distinctly identified such a person, an organization, a product, an event, etc.). However, the update of these sources with new information related to a given entity is done manually by contributors with a significant latency time particularly if that entity is not popular. A system that analyzes documents when published on the Web to filter important information about entities will probably accelerate the update of these knowledge bases. In this thesis, we are interested in filtering timely and relevant information, called vital information, concerning the entities. We aim at answering the following two issues: (1) How to detect if a document is vital (i.e., it provides timely relevant information) to an entity? and (2) How to extract vital information from these documents to build a temporal summary about the entity that can be seen as a reference for updating the corresponding knowledge base entry? Regarding the first issue, we proposed two methods. The first proposal is fully supervised. It is based on a vitality language model. The second proposal measures the freshness of temporal expressions in a document to decide its vitality. Concerning the second issue, we proposed a method that selects the sentences based on the presence of triggers words automatically retrieved from the knowledge already represented in the knowledge base (such as the description of similar entities). We carried out our experiments on the TREC Stream corpus 2013 and 2014 with 1.2 billion documents and different types of entities (persons, organizations, facilities and events). For vital documents filtering approaches, we conducted our experiments in the context of the task "knowledge Base Acceleration (KBA)" for the years 2013 and 2014. Our method based on leveraging the temporal expressions in the document obtained good results outperforming the best participant system in the task KBA 2013. In addition, we showed the importance of our generated temporal summaries to accelerate the update of knowledge bases.
|
7 |
L'agrégation financière territorialisée en région Provence-Alpes-Côte d'Azur / The territorial aggregate in the PACA Region (Provence-Alpes-Côte d'Azur)Llinares, Philippe 22 October 2011 (has links)
Les régions qui gagnent, sont celles dans lesquelles existent, grâce à une décentralisation, notamment régionale, large et réelle, des centres de décision proches, des synergies fortes entre tous les acteurs de la vie sociale et économique, appuyés sur une identité reconnue. Au sein de la région PACA, l'agrégation financière territorialisée doit constituer un outil de transparence démocratique qui permet une dynamique à l'intérieur du territoire régional.L'agrégation se définit comme l'addition de certaines données financières de plusieurs niveaux de collectivités sur un territoire donné. Le champ et la nature des informations agrégées sont déterminés par les acteurs locaux en fonction de leurs besoins. Ils peuvent être globaux ou partiels, porter sur l'ensemble de l'action des collectivités ou sur une compétence déterminée.L'objectif de la démarche est de permettre à la région PACA d'avoir à sa disposition une restitution qui lui permette de connaître avec exactitude la situation financière des zones de son territoire. Actuellement, la représentation d'une région s'opère uniquement à travers les comptes du conseil régional. Certes, les régions opèrent des audits pour leur permettre de connaître la situation d'une zone sur son territoire, mais ces études sont isolées, incomplètes et peu représentatives de la réalité financière globale de leur territoire.Aussi, est-il nécessaire de mettre en œuvre un véritable outil qui permettrait d'avoir une vision complète et exacte des différentes zones territoriales dans la région.Les thèmes étudiés relèveront de l'économie spatiale, mais aussi des finances publiques territoriales et des systèmes de diffusion de l'information.Les travaux de recherche se sont étalés sur cinq années et présentent l'exercice 2008 comme une année de référence. Outre une présentation agrégée de la région, c'est une méthode scientifique qui est conçue pour y parvenir / The winning regions are those where a real decentralization, particularly regional, exists with local centres of decision and strong synergies between the different social and economic partners in a common identity.Within the PACA region, the territorial financial aggregate should constitute a dynamic tool for democratic transparency.The aggregate can be defined as the sum of certain financial data on several local community levels in a given territory. The content of the aggregate information is chosen by the local decision centres depending on their needs. This can be global or partial : concerning all or only certain community competences.Our aim is to make the exact financial situation of the different sectors of its territory avaible to the PACA region.At the present time, the information on the situation of any region can only be obtained from the accounts of the regional council. Indeep, the regions carry out audits to be informed of the situation of particular sectors, but these audits are isolated, incomplete and do not reflect the global financial reality of the territory. It is thus necessary to provide a tool capable of giving an exact and complete report on the different sectors. The themes to be studied will concern spatial economics, as well as territorial public finance and the diffusion of information. The research has taken place over five years and presents 2008 as the year of reference. In addition to an aggregate presentation of the region, this is a scientific method conceived to succeed
|
8 |
L'apprentissage sous la dépendance pour l'agrégation des estimateurs et classifications, avec applications à ADN / Learning under Dependence for Aggregation of Estimators andClassification, with Applications to DNA AnalysisLi, Xiaoyin 23 October 2014 (has links)
Dans cette thèse, nous donnons une introduction systématique à la condition dépendance faible, introduit par Doukhan and Louhichi (1999) , qui est plus générale que les cadres classiques de mélange ou de séquences associées. La notion est suffisamment large pour inclure des modèles standards tels que les modèles stables de Markov , les modèles bilinéaires , et plus généralement , les schémas de Bernoulli. Dans certains cas, aucunes des propriétés de mélangeant ne peut s'attendre sans hypothèse de régularité supplémentaire sur la distribution innovations pour lesquelles une condition de dépendance faible peut être facile- ment dérivée. Nous étudions la relation entre dépendance faible et mélangeant pour les processus de valeurs discrètes. Nous montrons que la dépendance faible implique des conditions de mélangeant sous des hypothèses naturelles. Les ré- sultats se spécialisent au cas des processus Markovian. Plusieurs exemples de processus à valeur entier sont examinés et leurs propriétés de dépendance faibles sont étudiés à l'aide d'une contraction principale.Dans la deuxième partie, nous établissons des vitesses de convergences en apprentissage statistique pour les prédictions d'une série chronologique. En util- isant l'approche PAC- bayésienne, les vitesses lentes de convergence d/n pour l'estimateur de Gibbs sous la perte absolue ont été donnés dans un travail précé- dent Alquier and Wintenberger (2012), où n est la taille de l'échantillon et d la dimension de l'ensemble des prédicteurs. Sous les mêmes conditions de dépendance faible, nous étendons ce résultat à une fonction de perte Lipschitz convexe. Nous identifions également une condition sur l'espace des paramètres qui assure des vitesses similaires pour la procédure classique de l'ERM pé- nalisé. Nous appliquons cette méthode pour la prédiction quantile du PIB français. Dans des conditions supplémentaires sur les fonctions de perte ( satis- faites par la fonction de perte quadratique ) et pour les processus uniformément mélangeant, nous montrons que l'estimateur de Gibbs atteint effectivement lesivvitesses rapides de convergence d/n. Nous discutons de l' optimalité de ces dif- férentes vitesses à abaisser les limites en soulignant des références quand elles sont disponibles. En particulier, ces résultats apportent une généralisation des résultats de Dalalyan and Tsybakov (2008) sur l'estimation en régression sparse à certains auto-régression. / This thesis aims at a systematic introduction to a weak dependence condition, provided by Doukhan and Louhichi (1999), which is more general than the clas- sical frameworks of mixing or associated sequences. The notion is broad enough to include some standard models such as stable Markov models, bilinear models, and more generally, Bernoulli shifts. In some cases no mixing properties can be expected without additional regularity assumption on the distribution of the innovations distribution for which a weak dependence condition can be easily de- rived. We investigate the relationship between weak dependence and mixing for discrete valued processes. We show that weak dependence implies mixing con- ditions under natural assumptions. The results specialize to the case of Markov processes. Several examples of integer valued processes are discussed and their weak dependence properties are investigated by means of a contraction principle.In the second part, we establish rates of convergences in statistical learning for time series forecasting. Using the PAC-Bayesian approach, slow rates of con- vergence d/n for the Gibbs estimator under the absolute loss were given in a previous work Alquier and Wintenberger (2012), where n is the sample size and d the dimension of the set of predictors. Under the same weak dependence conditions, we extend this result to any convex Lipschitz loss function. We also identify a condition on the parameter space that ensures similar rates for the clas- sical penalized ERM procedure. We apply this method for quantile forecasting of the French GDP. Under additional conditions on the loss functions (satisfied by the quadratic loss function) and for uniformly mixing processes, we prove that the Gibbs estimator actually achieves fast rates of convergence d/n. We discuss the optimality of these different rates pointing out references to lower bounds when they are available. In particular, these results bring a generalization of the results of Dalalyan and Tsybakov (2008) on sparse regression estimation to some autoregression.
|
9 |
Régulation de la voie autophagique par la Gigaxonine E3-ligase, et implication dans les maladies neurodégénératives / Regulation of autophagy by Gigaxonin-E3 ligase, and its involvement in neurodegenerative diseasesScrivo, Aurora 23 September 2016 (has links)
L'autophagie est l'une des voies de signalisation qui maintiennent l'homéostasie cellulaire en condition basale, mais aussi en réponse à un stress. Son rôle est essentiel pour assurer plusieurs fonctions physiologiques, et son altération est associée à de nombreuses maladies, parmi lesquelles le cancer, les maladies immunitaires et les maladies neurodégénératives. Un nombre croissant d'études a établi que la voie autophagique est finement contrôlée. Cependant, très peu est connu sur les mécanismes moléculaires assurant sa régulation mais la famille des E3-ligases joue un rôle primordiale. La Gigaxonine est un adaptateur de la famille des E3 ligases CUL3, qui spécifie les substrats pour leur ubiquitination et leur successive dégradation. Des mutations «perte de fonction» de la Gigaxonine causent la Neuropathie à Axones Géants (NAG), une maladie neurodégénérative sévère et fatale, qui impacte tout le système nerveux et provoque une agrégation anormale des Filaments Intermédiaires (FI) dans l'organisme entier. Grâce à la modélisation de la pathologie dans les cellules de patients et chez la souris, le laboratoire a pu mettre en avant le rôle crucial de la Gigaxonine dans la dégradation de la famille des FIs, à travers son activité d'ubiquitination.Au cours de ma thèse, j'ai étudié les mécanismes de neurodégénerescence de la NAG, et la possible altération de la voie autophagique.Pour cela, j'ai développé un nouveau modèle neuronal de la maladie, à partir de notre modèle murin NAG, qui reproduit la mort neuronale et l'agrégation des FIs retrouvées chez les patients. Pour étudier l'implication de l'autophagie dans la neurodégénérescence, j'ai évalué l'effet de la déplétion de la Gigaxonine sur la formation des autophagosomes, le flux autophagique, la fusion avec le lysosome et la dégradation. J’ai ainsi révélé un défaut dans la dynamique autophagique dans les neurones NAG -/-. Pour déchiffrer les mécanismes moléculaires sous-jacents, j'ai étudié l'effet de l'absence de la Gigaxonine sur différentes régulateurs de la voie. En utilisant des techniques complémentaires, j'ai montré que la Gigaxonine est essentielle pour le turn-over d’un interrupteur autophagique, à travers son activité d’E3-ligase.En conclusion, nous avons identifié un nouveau mécanisme moléculaire impliqué dans le contrôle des premières phases de l'autophagie. Non seulement ces résultats présentent une avancée significative dans le domaine de l'autophagie, ils contribuent également à la compréhension de son dysfonctionnement dans les maladies neurodégénératives, et pourraient générer une nouvelle cible pour une intervention thérapeutique chez l'homme. / The autophagic route is one of the signaling pathways that sustain cellular homeostasis in basal condition, but also in response to stress. It has been shown to be crucial for several physiological functions and its impairment is associated with many diseases, including cancer, immune and neurodegenerative diseases. While an expanding number of studies have shown that autophagic route is finely controlled, little is known about the molecular mechanisms ensuring its function, but a fundamental role is sustained by the family of E3 ligases. Gigaxonin is an adaptor of a Cul3-E3 ligase, which specifies the substrates for their ubiquitination and their subsequent degradation. “Loss of function” mutations in Gigaxonin cause Giant Axonal Neuropathy (GAN), a severe and fatal neurodegenerative disorder that impacts broadly the nervous system and cause an abnormal aggregation of Intermediate Filaments (IFs) through the body. Modeling the disease in patient’s cells and in mouse, the laboratory has demonstrated the crucial role of Gigaxonin in degrading the entire family of IFs through its ubiquitination activity.During my PhD, I studied the neurodegenerative mechanisms in GAN disease, and the possible impairment of autophagy pathway.For that purpose, I developed a new neuronal model of the disease from our GAN mouse, which reproduced the neurodegeneration and the IF aggregation found in patients. To investigate the involvement of autophagy in neurodegeneration, I evaluated the effect of Gigaxonin depletion on autophagosome formation, autophagic flux, lysosome fusion and degradation, and I revealed a defect in autophagy dynamics. To decipher the molecular mechanism of autophagosome impairment, I investigated the effect of Gigaxonin depletion on different autophagy regulators. Using complementary techniques, I showed that Gigaxonin is essential for the turn-over of a specific molecular switch, through its E3 ligase activity.Altogether, we identified a new exciting molecular mechanism in the control of autophagy. Not only these findings present a significant advance in the comprehension of the fundamental field of autophagy, but it also contribute in the understanding of its dysfunction in neurodegenerative diseases, and may generate a new target for therapeutic intervention in humans.
|
10 |
Développement de techniques physiques et chimiques pour l’étude et l’inhibition de l’oligomérisation et de l’agrégation de IAPP : intérêt dans le diabète de type II / Development of physical and chemical techniques for the study and theinhibition of IAPP oligomerization and fibrillization : interest in type II diabetesBerardet, Corentin 29 November 2018 (has links)
La prévalence croissante du diabète de type II et les risques cardiovasculaires associés, sont maintenant considérés comme un enjeu majeur de santé publique. L'agrégation du polypeptide amyloïde humain des îlots (hIAPP) est liée à une dégénérescence des cel-lules β pancréatiques et à la pathogénèse du diabète de type II. Le mécanisme de la toxi-cité de hIAPP et la nature des espèces concernées (oligomères et/ou fibres) sont loin d'être élucidés, bien que de récentes études ont montré que les oligomères formés lors des étapes précoces du processus pourraient être les plus toxiques. Très peu de tech-niques permettent à l’heure actuelle de suivre cette oligomérisation en temps réel et d’évaluer des inhibiteurs de ce processus pathologique. Au cours de cette thèse, nous avons exploré la CE et l’IMS-MS comme techniques permettant de suivre l’oligomérisation de hIAPP in vitro en temps réel. Une méthode de CE a été développée, permettant d’évaluer de nouveaux inhibiteurs envers cette oligomérisation. Une méthode d’IMS-MS a également été développée pour décrire les interactions formées entre hIAPP et un inhibiteur.Des inhibiteurs peptidomimétiques ont été rationnellement conçus et syn-thétisés afin de déstabiliser les structures β formées lors de l’oligomérisation de hIAPP. L’évaluation de ces composés a permis de mettre en évidence la relation entre leurs structures et leurs activités inhibitrices. Des études de viabilité cellulaire sont en cours afin d’améliorer la compréhension de l’activité de ces molécules. / The rising prevalence of type II diabetes, and associated adverse cardiovascular risks, is now considered as a major public health challenge. The aggregation of human islet amyloid polypeptide (hIAPP) is linked to beta-cell degeneration and to the pathogenesis of type II diabetes. The mechanism of hIAPP toxicity and the species involved (oligomers and/or fibrils) are far to be elucidated, although recent studies have shown that early formed species could be the most toxic species. Very few techniques are currently available to monitor in real time this oligomerization and to evaluate inhibitors of this pathological process. During this PhD project, we investigated CE and IMS-MS as potential techniques to monitor in vitro and in real time the oligomerization of hIAPP. A CE-UV method has been developed, which allows the activity evaluation of new inhibitors. An IMS-MS method has also been developed to investigate the interactions formed between hIAPP and the inhibitors. Peptidomimetics inhibitors have been rationally designed and synthesized in order to destabilize beta-sheets structures formed during the oligomerization process of hIAPP. The evaluation of those compounds revealed a relation between their structures and their inhibitory activities. Cellular viability tests are on-going to get more insights on those molecules activity.
|
Page generated in 0.093 seconds