Spelling suggestions: "subject:"agrégation"" "subject:"ségrégation""
11 |
Développement de techniques physiques et chimiques pour l’étude et l’inhibition de l’oligomérisation et de l’agrégation de IAPP : intérêt dans le diabète de type II / Development of physical and chemical techniques for the study and theinhibition of IAPP oligomerization and fibrillization : interest in type II diabetesBerardet, Corentin 29 November 2018 (has links)
La prévalence croissante du diabète de type II et les risques cardiovasculaires associés, sont maintenant considérés comme un enjeu majeur de santé publique. L'agrégation du polypeptide amyloïde humain des îlots (hIAPP) est liée à une dégénérescence des cel-lules β pancréatiques et à la pathogénèse du diabète de type II. Le mécanisme de la toxi-cité de hIAPP et la nature des espèces concernées (oligomères et/ou fibres) sont loin d'être élucidés, bien que de récentes études ont montré que les oligomères formés lors des étapes précoces du processus pourraient être les plus toxiques. Très peu de tech-niques permettent à l’heure actuelle de suivre cette oligomérisation en temps réel et d’évaluer des inhibiteurs de ce processus pathologique. Au cours de cette thèse, nous avons exploré la CE et l’IMS-MS comme techniques permettant de suivre l’oligomérisation de hIAPP in vitro en temps réel. Une méthode de CE a été développée, permettant d’évaluer de nouveaux inhibiteurs envers cette oligomérisation. Une méthode d’IMS-MS a également été développée pour décrire les interactions formées entre hIAPP et un inhibiteur.Des inhibiteurs peptidomimétiques ont été rationnellement conçus et syn-thétisés afin de déstabiliser les structures β formées lors de l’oligomérisation de hIAPP. L’évaluation de ces composés a permis de mettre en évidence la relation entre leurs structures et leurs activités inhibitrices. Des études de viabilité cellulaire sont en cours afin d’améliorer la compréhension de l’activité de ces molécules. / The rising prevalence of type II diabetes, and associated adverse cardiovascular risks, is now considered as a major public health challenge. The aggregation of human islet amyloid polypeptide (hIAPP) is linked to beta-cell degeneration and to the pathogenesis of type II diabetes. The mechanism of hIAPP toxicity and the species involved (oligomers and/or fibrils) are far to be elucidated, although recent studies have shown that early formed species could be the most toxic species. Very few techniques are currently available to monitor in real time this oligomerization and to evaluate inhibitors of this pathological process. During this PhD project, we investigated CE and IMS-MS as potential techniques to monitor in vitro and in real time the oligomerization of hIAPP. A CE-UV method has been developed, which allows the activity evaluation of new inhibitors. An IMS-MS method has also been developed to investigate the interactions formed between hIAPP and the inhibitors. Peptidomimetics inhibitors have been rationally designed and synthesized in order to destabilize beta-sheets structures formed during the oligomerization process of hIAPP. The evaluation of those compounds revealed a relation between their structures and their inhibitory activities. Cellular viability tests are on-going to get more insights on those molecules activity.
|
12 |
Étude de l'oligomérisation du récepteur des oestrogènes et son interaction avec le peptide GRIP-1 à l'aide du BRETMelançon, Geneviève January 2001 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
13 |
L'influence de la structure de l'habitat sur la distribution spatiale des poissons de la zone littoraleAboul Hosn, Wafa January 1993 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
14 |
Définition et évaluation de modèles d'agrégation pour l'estimation de la pertinence multidimensionnelle en recherche d'information / Definition and evaluation of aggregation model for multidimensional relevance estimation in information retrievalMoulahi, Bilel 11 December 2015 (has links)
La problématique générale de notre travail s'inscrit dans le domaine scientifique de la recherche d'information (RI). Les modèles de RI classiques sont généralement basés sur une définition de la notion de pertinence qui est liée essentiellement à l'adéquation thématique entre le sujet de la requête et le sujet du document. Le concept de pertinence a été revisité selon différents niveaux intégrant ainsi différents facteurs liés à l'utilisateur et à son environnement dans une situation de RI. Dans ce travail, nous abordons spécifiquement le problème lié à la modélisation de la pertinence multidimensionnelle à travers la définition de nouveaux modèles d'agrégation des critères et leur évaluation dans des tâches de recherche de RI. Pour répondre à cette problématique, les travaux de l'état de l'art se basent principalement sur des combinaisons linéaires simples. Cependant, ces méthodes se reposent sur l'hypothèse non réaliste d'additivité ou d'indépendance des dimensions, ce qui rend le modèle non approprié dans plusieurs situations de recherche réelles dans lesquelles les critères étant corrélés ou présentant des interactions entre eux. D'autres techniques issues du domaine de l'apprentissage automatique ont été aussi proposées, permettant ainsi d'apprendre un modèle par l'exemple et de le généraliser dans l'ordonnancement et l'agrégation des critères. Toutefois, ces méthodes ont tendance à offrir un aperçu limité sur la façon de considérer l'importance et l'interaction entre les critères. En plus de la sensibilité des paramètres utilisés dans ces algorithmes, est très difficile de comprendre pourquoi un critère est préféré par rapport à un autre. Pour répondre à cette première direction de recherche, nous avons proposé un modèle de combinaison de pertinence multicritères basé sur un opérateur d'agrégation qui permet de surmonter le problème d'additivité des fonctions de combinaison classiques. Notre modèle se base sur une mesure qui permet de donner une idée plus claire sur les corrélations et interactions entre les critères. Nous avons ainsi adapté ce modèle pour deux scénarios de combinaison de pertinence multicritères : (i) un cadre de recherche d'information multicritères dans un contexte de recherche de tweets et (ii) deux cadres de recherche d'information personnalisée. Le deuxième axe de recherche s'intéresse à l'intégration du facteur temporel dans le processus d'agrégation afin de tenir compte des changements occurrents sur les collection de documents au cours du temps. Pour ce faire, nous avons proposé donc un modèle d'agrégation sensible au temps pour combinant le facteur temporel avec le facteur de pertinence thématique. Dans cet objectif, nous avons effectué une analyse temporelle pour éliciter l'aspect temporel des requêtes, et nous avons proposé une évaluation de ce modèle dans une tâche de recherche sensible au temps. / The main research topic of this document revolve around the information retrieval (IR) field. Traditional IR models rank documents by computing single scores separately with respect to one single objective criterion. Recently, an increasing number of IR studies has triggered a resurgence of interest in redefining the algorithmic estimation of relevance, which implies a shift from topical to multidimensional relevance assessment. In our work, we specifically address the multidimensional relevance assessment and evaluation problems. To tackle this challenge, state-of-the-art approaches are often based on linear combination mechanisms. However, these methods rely on the unrealistic additivity hypothesis and independence of the relevance dimensions, which makes it unsuitable in many real situations where criteria are correlated. Other techniques from the machine learning area have also been proposed. The latter learn a model from example inputs and generalize it to combine the different criteria. Nonetheless, these methods tend to offer only limited insight on how to consider the importance and the interaction between the criteria. In addition to the parameters sensitivity used within these algorithms, it is quite difficult to understand why a criteria is more preferred over another one. To address this problem, we proposed a model based on a multi-criteria aggregation operator that is able to overcome the problem of additivity. Our model is based on a fuzzy measure that offer semantic interpretations of the correlations and interactions between the criteria. We have adapted this model to the multidimensional relevance estimation in two scenarii: (i) a tweet search task and (ii) two personalized IR settings. The second line of research focuses on the integration of the temporal factor in the aggregation process, in order to consider the changes of document collections over time. To do so, we have proposed a time-aware IR model for combining the temporal relavance criterion with the topical relevance one. Then, we performed a time series analysis to identify the temporal query nature, and we proposed an evaluation framework within a time-aware IR setting.
|
15 |
Optimisation de la collecte de données dans les réseaux de capteurs sans fil : application au projet Everblu d’Itron / Data collection optimization in Wireless Sensor Networks : application to the Everblu smart metering NetworkAbid, Besem 23 March 2015 (has links)
Les réseaux de capteurs sans fil contiennent de nombreux nœuds capables de recueillir et de transmettre des données de manière autonome. Optimiser la collecte de données est une tâche importante pour ces réseaux. Cette optimisation passe par trois axes: 1. L'agrégation des paquets pour réduire le trafic dans le réseau.2. Éviter les interférences et les collisions de paquets. 3. Une bonne stratégie de déploiement des nœuds. D'abord, nous avons travaillé sur l'agrégation de données dans les réseaux de capteurs. Cette technique permet au réseau de réduire la consommation d'énergie en éliminant les paquets redondants, et en combinant plusieurs paquets pour les envoyer en un seul paquet. Dans notre travail, nous avons considéré les applications temps réel dans les réseaux de capteurs. Nous avons proposé une solution qui combine un clustering multi-niveaux avec un mécanisme de transmission de données entre les clusterheads qui favorise l'agrégation. En outre, nous avons développé une nouvelle approche distribuée pour construire un backbone virtuel dans les réseaux de capteurs. Les nœuds du backbone sont les nœuds d'agrégation. Cette technique permet de réduire la consommation d'énergie et améliore la tolérance aux pannes et ainsi augmente la quantité de données qui atteint la station de base. Ensuite, nous nous sommes concentrés sur la façon dont les capteurs accèdent au canal de transmission via les protocoles MAC afin de diminuer le risque de collision des paquets. L'originalité de notre travail est lié à l'utilisation des nœuds mobiles et les applications temps réel dans les réseaux de capteurs sans fil. En effet, ces deux critères ont toujours été traités de façon séparée. Toute approche développée qui vise à améliorer la performance du réseau ne fonctionne bien qu'avec une bonne stratégie de déploiement sur le terrain. Par conséquent, nous proposons une nouvelle solution pour estimer les positions des différents composants du réseau et nous fournissons un nouvel outil pour aider les techniciens sur terrain lors de l'installation de ces composants. Notre solution de déploiement a été appliquée à un réseau de compteurs intelligents appelé EverBlu. Ce système est une solution de collecte de données sans fil développée par Itron. Il est adapté à tout type de compteur (eau, gaz et chaleur) et pour différentes topologies de sites, que ce soit en milieu urbain ou rural / Wireless sensor networks (WSNs) contain many nodes able to collect and transmit data autonomously. Optimizing data collection is an important issue in these networks. This optimization goes through three axis: 1. Packet aggregation to reduce the traffic in the network. 2. Avoiding interference and packets collision. 3. A good deployment strategy in field. We firstly worked on data aggregation in WSNs which enables the network to reduce energy consumption by removing redundant packets, and by combining packets together and sending them as one packet. In our research, we considered real-time applications in WSNs. For these networks, we proposed a solution that combines a multi-level clustering with a data transmission mechanism between cluster heads that promotes aggregation. In addition, we developed a new distributed approach to construct a virtual backbone in a WSN. The nodes inside the backbone are the aggregator nodes. This technique reduces the energy consumption and enhances fault tolerance which increases the amount of data that reaches the sink even when some nodes fail in the network. Then, we focus on how the sensors access to the transmission channel via Medium Access Control (MAC) protocols in order to decrease the risk of packets collision. The originality of our work is related to mobile nodes and real-time WSN applications. In fact, these two criteria were always treated independently. Any developed approach that aims to enhance the network performance works well only with a good deployment strategy in field. Therefore we propose a new solution to predict the different network components and we provide a new tool to assist the technicians in field while installing these components. Our deployment solution was applied to a smart metering network called EverBlu. This system is a wireless data collection solution developed by Itron. It is suitable for any meter type (Water, Gas and Heat) and for various site topologies, either in urban or rural environments
|
16 |
Simulation numérique d'agrégats fractals en milieu de microgravitéDoyon, Julien 18 April 2018 (has links)
Depuis quelques décennies, l'étude de l'agrégation fractale dans divers environnements est de plus en plus importante en raison de son omniprésence dans plusieurs domaines scientifiques. L'intérêt est d'ailleurs marqué dans les sciences de la microgravité où les agrégats montrent des propriétés physiques très intéressantes. C'est dans cette optique que ce mémoire s'attarde aux simulations informatiques reliées à l'agrégation de particules en microgravité. Tout d'abord, la théorie entourant les fractales ainsi que les simulations numériques concernant l'agrégation a été abordée. La description des algorithmes numériques développés pour le projet est faite et les résultats recueillis à partir de ceux-ci sont exposés. Une rigoureuse analyse est ensuite présentée à partir des agrégats simulés. Dans cette étude, différents modèles numériques d'agrégation de particules, favorisant une vitesse de simulation relativement élevée, sont décrits. De plus, les différents facteurs influençant l'agrégation de particules y sont analysés. Des explications aux phénomènes physiques sont suggérées et des commentaires sont faits au sujet des algorithmes numériques afin d'optimiser la simulation d'agrégats dans des travaux futurs.
|
17 |
Caractérisation fonctionnelle des protéines de transition de la spermiogenèseLévesque, Dominique January 1998 (has links)
Durant la phase haploïde de la spermatogénèse (spermiogenèse), les nucléohistones sont remplacées par des protéines hautement basiques, les protamines. Chez les mammifères, ce processus de transition est engendré par l'apparition de protéines nucléaires abondantes dites"de transition" (TP). Les protéines de transition assureraient conséquemment une condensation importante du génome haploïde, entraînant un remodelage majeur de la chromatine de type somatique et une inactivation des enzymes impliqués dans le métabolisme de l'ADN. L'intégrité du processus de restructuration de la chromatine est maintenant considérée comme un déterminant essentiel de la fertilité chez l'homme. TP1, une des protéines de transition majeure de la spermiogenèse, est une protéine de 6 KDa riche en résidus basiques et possédant une activité déstabilisatrice de l'ADN. La protéine de transition majeure TP2, quant à elle, est une protéine basique de 13 KDa comprenant deux structures en"doigts à zinc" situées dans sa partie N-terminale. Au contraire de TP1, TP2 est caractérisée par son potentiel stabilisateur de l'ADN. Notre objectif initial était de déterminer les propriétés structurales de liaison à l'ADN des protéines TP1 et TP2."--Résumé abrégé par UMI.
|
18 |
Contributions à l'alignement d'ontologies OWL par agrégation de similarités / Contributions to OWL ontologies alignment using similarity aggregationZghal, Sami 21 December 2010 (has links)
Dans le cadre de cette thèse, nous avons proposé plusieurs méthodes d'alignement à savoir: la méthode EDOLA, la méthode SODA et la méthode OACAS. Les trois méthodes procèdent dans une première phase à la transformation des deux ontologies à aligner sous la forme d'un graphe, O-Graph, pour chaque ontologie. Ces graphes permettent la représentation des ontologies sous une forme facile à l'exploitation. La méthode EDOLA est une approche se basant sur un modèle de calcul des similarités locale et globale. Ce modèle suit la structure du graphe pour calculer les mesures de similarité entre les noeuds des deux ontologies. Le module d'alignement associe pour chaque catégorie de noeuds une fonction d'agrégation. La fonction d'agrégation prend en considération toutes les mesures de similarités entre les couples de noeuds voisins au couple de noeud à apparier. La méthode SODA est une amélioration de la méthode EDOLA. En effet, la méthode SODA opère sur les ontologies OWL-DL, pour les aligner, à la place des ontologies décrites en OWL-Lite. La méthode SODA est une approche structurelle pour l'alignement d'ontologies OWL-DL. Elle opère en 3 étapes successives. La première étape permet de calculer la similarité linguistique à travers des mesures de similarité plus adaptées aux descripteurs des constituants des ontologies à apparier. La seconde étape détermine la similarité structurelle en exploitant la structure des deux graphes O-Graphs. La troisième étape déduit la similarité sémantique, en prenant en considération les deux types de similarités déjà calculées. La méthode d'alignement, OACAS, opère en 3 étapes successives pour produire l'alignement. La première étape permet de calculer la similarité linguistique composée. La similarité linguistique composée prend en considération tous les descripteurs des entités ontologiques à aligner. La seconde étape détermine la similarité de voisinage par niveau. La troisième étape agrège les composants de la similarité linguistique composée et la similarité de voisinage par niveau pour déterminer la similarité agrégée. / In this thesis, we have proposed three ontology alignment methods: EDOLA (Extended Diameter OWL-Lite Alignment) method, SODA (Structural Ontology OWL-DL Alignment) method and OACAS (Ontologies Alignment using Composition and Aggregation of Similarities) method. These methods rely on aggregation and composition of similarities and check the spread structure of the ontologies to be aligned. EDOLA method allows to align OWL-Lite ontologies whereas SODA and OACAS consider OWL-DL ontologies. The three proposed methods operate in a first step by transforming both ontologies to aligned as a graph, named O-Graph, for each ontology. This graph reproduces OWL ontologies to be easily manipulated during the alignment process. The obtained graphs describe all the information contained in the ontologies: entities, relations between entities and instances. Besides, the EDOLA method is a new approach that computes local and global similarities using a propagation technique of similarities through the O-Graphs. This model explores the structure of the considered O-Graphs to compute the similarity values between the nodes of both ontologies. The alignment model associates for each category of nodes an aggregation function. This function takes in consideration all the similarity measures of the couple of nodes to match. This aggregation function explores all descriptive information of this couple. EDOLA operates in two succesive steps. The first step computes the local similarity, terminological one, whereas the second step computes the global one. The SODA method is an improved version of EDOLA. In fact, it uses OWL-DL ontologies. SODA method is a structures approach for OWL-DL ontologies. The method operates in three successive steps and explores the structure the ontologies using O-Graphs. The first step computes linguistic similarity using appropriate similarity measures corresponding to the descriptors of ontological entities. The second step allows to compute structural similarity using the two graphs O-Graphs. The third step deduces the semantic similarity, by combining both similarities already computed, in order to outperform the alignment task.
|
19 |
Intéraction P-sélection/PSGL-1 : impact sur l'agrégation et l'activation plaquettaireThéorêt, Jean-François January 2006 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
20 |
Implication du dystroglycan et des protéines associées dans le ciblage des canaux potassiques, Kir4.1, et des canaux aqueux, AQP4, au niveau des astrocytesGuadagno, Éric January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
Page generated in 0.0922 seconds