• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 223
  • 86
  • 17
  • 1
  • Tagged with
  • 318
  • 172
  • 59
  • 40
  • 26
  • 21
  • 20
  • 20
  • 20
  • 19
  • 19
  • 17
  • 17
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Les agrégats de la protéine p53 comportent certaines propriétés des prions

Forget, Karolyn January 2013 (has links)
Les maladies à prion sont un cas unique de pathologie où l’agent infectieux, le prion, est une protéine. La protéine prion possède plusieurs caractéristiques qui la rendent particulière vis-à-vis d’autres protéines cellulaires, telles que sa capacité à agréger et à transmettre sa conformation agrégée à la protéine soluble ainsi que la transmission des agrégats de la protéine d’une cellule à l’autre et d’un organisme à un autre. De plus en plus, on associe l’agrégation de protéines à différentes maladies humaines, comme les maladies d’Alzheimer, de Parkinson et le diabète de type 2. Certaines protéines impliquées dans ces pathologies font partie des prionoïdes, une catégorie réservée aux protéines aux propriétés agrégatives qui démontrent certaines des caractéristiques associées aux prions. Récemment, la protéine p53, un facteur de transcription fortement impliqué dans le cancer, a été montrée comme étant capable d’agréger in vitro. Une accumulation de la protéine a également été observée dans des cellules tumorales, laissant croire que l’agrégation de p53 se produit également in vivo, et pourrait avoir un rôle dans le développement du cancer. Ces observations portent à croire que la protéine p53 pourrait elle aussi faire partie des prionoïdes. L’objectif de cette étude est donc de montrer que la protéine p53 possède certaines des caractéristiques des prions. Pour ce faire, la protéine p53 recombinante a été produite pour former des agrégats de p53 et ces agrégats ont été utilisés pour déterminer si la protéine démontre des caractères prionoïdes. Les résultats obtenus montrent une agrégation in vitro de p53WT pleine longueur ainsi que de sa forme tronquée, p53C. De plus, des cellules en culture sont capables d’internaliser ces agrégats, qui co-agrègent ensuite avec la protéine p53 endogène de ces cellules. Enfin, nos résultats montrent clairement que l’internalisation des agrégats par les cellules se fait par la macropinocytose. Nous avons donc réussi à prouver que la protéine p53 agit comme un prion puisqu’elle s’agrège spontanément, ses agrégats sont internalisés par des cellules en culture et sont capables de co-agréger avec la protéine soluble.
2

Implication des protéines kinases C dans l'activation et la fonction plaquettaire

Yacoub, Daniel January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
3

Prévision de série issue de l'agrégation contemporaine : comparaison entre l'approche agrégée et désagrégée

Marcil, Philippe January 2007 (has links) (PDF)
Nous étudions la différence des erreurs de prévisions entre une représentation agrégée et désagrégée lorsque l'on s'intéresse à la prévision de la série agrégée. Pour ce faire, nous développons un modèle théorique qui étudie les erreurs de prévisions d'une représentation agrégée et désagrégée en unissant les théories de différents auteurs dans un même cadre analytique. Le modèle que nous avons développé démontre que la présence de racine commune est essentielle, mais est une condition non suffisante pour que le modèle agrégé ait une erreur de prévision plus faible que le modèle désagrégé. De plus, les simulations démontrent que la présence de racines communes aide à faire diminuer l'écart des erreurs de prévisions entre une représentation agrégée et désagrégée.
4

Filtrage et agrégation d'informations vitales relatives à des entités / Filtering and aggregating vital information related to entities

Abbes, Rafik 11 December 2015 (has links)
Aujourd'hui, les bases de connaissances telles que Wikipedia et DBpedia représentent les sources principales pour accéder aux informations disponibles sur une grande variété d'entités (une entité est une chose qui peut être distinctement identifiée par exemple une personne, une organisation, un produit, un événement, etc.). Cependant, la mise à jour de ces sources avec des informations nouvelles en rapport avec une entité donnée se fait manuellement par des contributeurs et avec un temps de latence important en particulier si cette entité n'est pas populaire. Concevoir un système qui analyse les documents dès leur publication sur le Web pour filtrer les informations importantes relatives à des entités pourra sans doute accélérer la mise à jour de ces bases de connaissances. Dans cette thèse, nous nous intéressons au filtrage d'informations pertinentes et nouvelles, appelées vitales, relatives à des entités. Ces travaux rentrent dans le cadre de la recherche d'information mais visent aussi à enrichir les techniques d'ingénierie de connaissances en aidant à la sélection des informations à traiter. Nous souhaitons répondre principalement aux deux problématiques suivantes: (1) Comment détecter si un document est vital (c.à.d qu'il apporte une information pertinente et nouvelle) par rapport à une entité donnée? et (2) Comment extraire les informations vitales à partir de ces documents qui serviront comme référence pour mettre à jour des bases de connaissances? Concernant la première problématique, nous avons proposé deux méthodes. La première proposition est totalement supervisée. Elle se base sur un modèle de langue de vitalité. La deuxième proposition mesure la fraîcheur des expressions temporelles contenues dans un document afin de décider de sa vitalité. En ce qui concerne la deuxième problématique relative à l'extraction d'informations vitales à partir des documents vitaux, nous avons proposé une méthode qui sélectionne les phrases comportant potentiellement ces informations vitales, en nous basant sur la présence de mots déclencheurs récupérés automatiquement à partir de la connaissance déjà représentée dans la base de connaissances (comme la description d'entités similaires).L'évaluation des approches proposées a été effectuée dans le cadre de la campagne d'évaluation internationale TREC sur une collection de 1.2 milliard de documents avec différents types d'entités (personnes, organisations, établissements et événements). Pour les approches de filtrage de documents vitaux, nous avons mené nos expérimentations dans le cadre de la tâche "Knwoledge Base Acceleration (KBA)" pour les années 2013 et 2014. L'exploitation des expressions temporelles dans le document a permis d'obtenir de bons résultats dépassant le meilleur système proposé dans la tâche KBA 2013. Pour évaluer les contributions concernant l'extraction des informations vitales relatives à des entités, nous nous sommes basés sur le cadre expérimental de la tâche "Temporal Summarization (TS)". Nous avons montré que notre approche permet de minimiser le temps de latence des mises à jour de bases de connaissances. / Nowadays, knowledge bases such as Wikipedia and DBpedia are the main sources to access information on a wide variety of entities (an entity is a thing that can be distinctly identified such a person, an organization, a product, an event, etc.). However, the update of these sources with new information related to a given entity is done manually by contributors with a significant latency time particularly if that entity is not popular. A system that analyzes documents when published on the Web to filter important information about entities will probably accelerate the update of these knowledge bases. In this thesis, we are interested in filtering timely and relevant information, called vital information, concerning the entities. We aim at answering the following two issues: (1) How to detect if a document is vital (i.e., it provides timely relevant information) to an entity? and (2) How to extract vital information from these documents to build a temporal summary about the entity that can be seen as a reference for updating the corresponding knowledge base entry? Regarding the first issue, we proposed two methods. The first proposal is fully supervised. It is based on a vitality language model. The second proposal measures the freshness of temporal expressions in a document to decide its vitality. Concerning the second issue, we proposed a method that selects the sentences based on the presence of triggers words automatically retrieved from the knowledge already represented in the knowledge base (such as the description of similar entities). We carried out our experiments on the TREC Stream corpus 2013 and 2014 with 1.2 billion documents and different types of entities (persons, organizations, facilities and events). For vital documents filtering approaches, we conducted our experiments in the context of the task "knowledge Base Acceleration (KBA)" for the years 2013 and 2014. Our method based on leveraging the temporal expressions in the document obtained good results outperforming the best participant system in the task KBA 2013. In addition, we showed the importance of our generated temporal summaries to accelerate the update of knowledge bases.
5

L'agrégation financière territorialisée en région Provence-Alpes-Côte d'Azur / The territorial aggregate in the PACA Region (Provence-Alpes-Côte d'Azur)

Llinares, Philippe 22 October 2011 (has links)
Les régions qui gagnent, sont celles dans lesquelles existent, grâce à une décentralisation, notamment régionale, large et réelle, des centres de décision proches, des synergies fortes entre tous les acteurs de la vie sociale et économique, appuyés sur une identité reconnue. Au sein de la région PACA, l'agrégation financière territorialisée doit constituer un outil de transparence démocratique qui permet une dynamique à l'intérieur du territoire régional.L'agrégation se définit comme l'addition de certaines données financières de plusieurs niveaux de collectivités sur un territoire donné. Le champ et la nature des informations agrégées sont déterminés par les acteurs locaux en fonction de leurs besoins. Ils peuvent être globaux ou partiels, porter sur l'ensemble de l'action des collectivités ou sur une compétence déterminée.L'objectif de la démarche est de permettre à la région PACA d'avoir à sa disposition une restitution qui lui permette de connaître avec exactitude la situation financière des zones de son territoire. Actuellement, la représentation d'une région s'opère uniquement à travers les comptes du conseil régional. Certes, les régions opèrent des audits pour leur permettre de connaître la situation d'une zone sur son territoire, mais ces études sont isolées, incomplètes et peu représentatives de la réalité financière globale de leur territoire.Aussi, est-il nécessaire de mettre en œuvre un véritable outil qui permettrait d'avoir une vision complète et exacte des différentes zones territoriales dans la région.Les thèmes étudiés relèveront de l'économie spatiale, mais aussi des finances publiques territoriales et des systèmes de diffusion de l'information.Les travaux de recherche se sont étalés sur cinq années et présentent l'exercice 2008 comme une année de référence. Outre une présentation agrégée de la région, c'est une méthode scientifique qui est conçue pour y parvenir / The winning regions are those where a real decentralization, particularly regional, exists with local centres of decision and strong synergies between the different social and economic partners in a common identity.Within the PACA region, the territorial financial aggregate should constitute a dynamic tool for democratic transparency.The aggregate can be defined as the sum of certain financial data on several local community levels in a given territory. The content of the aggregate information is chosen by the local decision centres depending on their needs. This can be global or partial : concerning all or only certain community competences.Our aim is to make the exact financial situation of the different sectors of its territory avaible to the PACA region.At the present time, the information on the situation of any region can only be obtained from the accounts of the regional council. Indeep, the regions carry out audits to be informed of the situation of particular sectors, but these audits are isolated, incomplete and do not reflect the global financial reality of the territory. It is thus necessary to provide a tool capable of giving an exact and complete report on the different sectors. The themes to be studied will concern spatial economics, as well as territorial public finance and the diffusion of information. The research has taken place over five years and presents 2008 as the year of reference. In addition to an aggregate presentation of the region, this is a scientific method conceived to succeed
6

L'apprentissage sous la dépendance pour l'agrégation des estimateurs et classifications, avec applications à ADN / Learning under Dependence for Aggregation of Estimators andClassification, with Applications to DNA Analysis

Li, Xiaoyin 23 October 2014 (has links)
Dans cette thèse, nous donnons une introduction systématique à la condition dépendance faible, introduit par Doukhan and Louhichi (1999) , qui est plus générale que les cadres classiques de mélange ou de séquences associées. La notion est suffisamment large pour inclure des modèles standards tels que les modèles stables de Markov , les modèles bilinéaires , et plus généralement , les schémas de Bernoulli. Dans certains cas, aucunes des propriétés de mélangeant ne peut s'attendre sans hypothèse de régularité supplémentaire sur la distribution innovations pour lesquelles une condition de dépendance faible peut être facile- ment dérivée. Nous étudions la relation entre dépendance faible et mélangeant pour les processus de valeurs discrètes. Nous montrons que la dépendance faible implique des conditions de mélangeant sous des hypothèses naturelles. Les ré- sultats se spécialisent au cas des processus Markovian. Plusieurs exemples de processus à valeur entier sont examinés et leurs propriétés de dépendance faibles sont étudiés à l'aide d'une contraction principale.Dans la deuxième partie, nous établissons des vitesses de convergences en apprentissage statistique pour les prédictions d'une série chronologique. En util- isant l'approche PAC- bayésienne, les vitesses lentes de convergence d/n pour l'estimateur de Gibbs sous la perte absolue ont été donnés dans un travail précé- dent Alquier and Wintenberger (2012), où n est la taille de l'échantillon et d la dimension de l'ensemble des prédicteurs. Sous les mêmes conditions de dépendance faible, nous étendons ce résultat à une fonction de perte Lipschitz convexe. Nous identifions également une condition sur l'espace des paramètres qui assure des vitesses similaires pour la procédure classique de l'ERM pé- nalisé. Nous appliquons cette méthode pour la prédiction quantile du PIB français. Dans des conditions supplémentaires sur les fonctions de perte ( satis- faites par la fonction de perte quadratique ) et pour les processus uniformément mélangeant, nous montrons que l'estimateur de Gibbs atteint effectivement lesivvitesses rapides de convergence d/n. Nous discutons de l' optimalité de ces dif- férentes vitesses à abaisser les limites en soulignant des références quand elles sont disponibles. En particulier, ces résultats apportent une généralisation des résultats de Dalalyan and Tsybakov (2008) sur l'estimation en régression sparse à certains auto-régression. / This thesis aims at a systematic introduction to a weak dependence condition, provided by Doukhan and Louhichi (1999), which is more general than the clas- sical frameworks of mixing or associated sequences. The notion is broad enough to include some standard models such as stable Markov models, bilinear models, and more generally, Bernoulli shifts. In some cases no mixing properties can be expected without additional regularity assumption on the distribution of the innovations distribution for which a weak dependence condition can be easily de- rived. We investigate the relationship between weak dependence and mixing for discrete valued processes. We show that weak dependence implies mixing con- ditions under natural assumptions. The results specialize to the case of Markov processes. Several examples of integer valued processes are discussed and their weak dependence properties are investigated by means of a contraction principle.In the second part, we establish rates of convergences in statistical learning for time series forecasting. Using the PAC-Bayesian approach, slow rates of con- vergence d/n for the Gibbs estimator under the absolute loss were given in a previous work Alquier and Wintenberger (2012), where n is the sample size and d the dimension of the set of predictors. Under the same weak dependence conditions, we extend this result to any convex Lipschitz loss function. We also identify a condition on the parameter space that ensures similar rates for the clas- sical penalized ERM procedure. We apply this method for quantile forecasting of the French GDP. Under additional conditions on the loss functions (satisfied by the quadratic loss function) and for uniformly mixing processes, we prove that the Gibbs estimator actually achieves fast rates of convergence d/n. We discuss the optimality of these different rates pointing out references to lower bounds when they are available. In particular, these results bring a generalization of the results of Dalalyan and Tsybakov (2008) on sparse regression estimation to some autoregression.
7

Régulation de la voie autophagique par la Gigaxonine E3-ligase, et implication dans les maladies neurodégénératives / Regulation of autophagy by Gigaxonin-E3 ligase, and its involvement in neurodegenerative diseases

Scrivo, Aurora 23 September 2016 (has links)
L'autophagie est l'une des voies de signalisation qui maintiennent l'homéostasie cellulaire en condition basale, mais aussi en réponse à un stress. Son rôle est essentiel pour assurer plusieurs fonctions physiologiques, et son altération est associée à de nombreuses maladies, parmi lesquelles le cancer, les maladies immunitaires et les maladies neurodégénératives. Un nombre croissant d'études a établi que la voie autophagique est finement contrôlée. Cependant, très peu est connu sur les mécanismes moléculaires assurant sa régulation mais la famille des E3-ligases joue un rôle primordiale. La Gigaxonine est un adaptateur de la famille des E3 ligases CUL3, qui spécifie les substrats pour leur ubiquitination et leur successive dégradation. Des mutations «perte de fonction» de la Gigaxonine causent la Neuropathie à Axones Géants (NAG), une maladie neurodégénérative sévère et fatale, qui impacte tout le système nerveux et provoque une agrégation anormale des Filaments Intermédiaires (FI) dans l'organisme entier. Grâce à la modélisation de la pathologie dans les cellules de patients et chez la souris, le laboratoire a pu mettre en avant le rôle crucial de la Gigaxonine dans la dégradation de la famille des FIs, à travers son activité d'ubiquitination.Au cours de ma thèse, j'ai étudié les mécanismes de neurodégénerescence de la NAG, et la possible altération de la voie autophagique.Pour cela, j'ai développé un nouveau modèle neuronal de la maladie, à partir de notre modèle murin NAG, qui reproduit la mort neuronale et l'agrégation des FIs retrouvées chez les patients. Pour étudier l'implication de l'autophagie dans la neurodégénérescence, j'ai évalué l'effet de la déplétion de la Gigaxonine sur la formation des autophagosomes, le flux autophagique, la fusion avec le lysosome et la dégradation. J’ai ainsi révélé un défaut dans la dynamique autophagique dans les neurones NAG -/-. Pour déchiffrer les mécanismes moléculaires sous-jacents, j'ai étudié l'effet de l'absence de la Gigaxonine sur différentes régulateurs de la voie. En utilisant des techniques complémentaires, j'ai montré que la Gigaxonine est essentielle pour le turn-over d’un interrupteur autophagique, à travers son activité d’E3-ligase.En conclusion, nous avons identifié un nouveau mécanisme moléculaire impliqué dans le contrôle des premières phases de l'autophagie. Non seulement ces résultats présentent une avancée significative dans le domaine de l'autophagie, ils contribuent également à la compréhension de son dysfonctionnement dans les maladies neurodégénératives, et pourraient générer une nouvelle cible pour une intervention thérapeutique chez l'homme. / The autophagic route is one of the signaling pathways that sustain cellular homeostasis in basal condition, but also in response to stress. It has been shown to be crucial for several physiological functions and its impairment is associated with many diseases, including cancer, immune and neurodegenerative diseases. While an expanding number of studies have shown that autophagic route is finely controlled, little is known about the molecular mechanisms ensuring its function, but a fundamental role is sustained by the family of E3 ligases. Gigaxonin is an adaptor of a Cul3-E3 ligase, which specifies the substrates for their ubiquitination and their subsequent degradation. “Loss of function” mutations in Gigaxonin cause Giant Axonal Neuropathy (GAN), a severe and fatal neurodegenerative disorder that impacts broadly the nervous system and cause an abnormal aggregation of Intermediate Filaments (IFs) through the body. Modeling the disease in patient’s cells and in mouse, the laboratory has demonstrated the crucial role of Gigaxonin in degrading the entire family of IFs through its ubiquitination activity.During my PhD, I studied the neurodegenerative mechanisms in GAN disease, and the possible impairment of autophagy pathway.For that purpose, I developed a new neuronal model of the disease from our GAN mouse, which reproduced the neurodegeneration and the IF aggregation found in patients. To investigate the involvement of autophagy in neurodegeneration, I evaluated the effect of Gigaxonin depletion on autophagosome formation, autophagic flux, lysosome fusion and degradation, and I revealed a defect in autophagy dynamics. To decipher the molecular mechanism of autophagosome impairment, I investigated the effect of Gigaxonin depletion on different autophagy regulators. Using complementary techniques, I showed that Gigaxonin is essential for the turn-over of a specific molecular switch, through its E3 ligase activity.Altogether, we identified a new exciting molecular mechanism in the control of autophagy. Not only these findings present a significant advance in the comprehension of the fundamental field of autophagy, but it also contribute in the understanding of its dysfunction in neurodegenerative diseases, and may generate a new target for therapeutic intervention in humans.
8

Développement de techniques physiques et chimiques pour l’étude et l’inhibition de l’oligomérisation et de l’agrégation de IAPP : intérêt dans le diabète de type II / Development of physical and chemical techniques for the study and theinhibition of IAPP oligomerization and fibrillization : interest in type II diabetes

Berardet, Corentin 29 November 2018 (has links)
La prévalence croissante du diabète de type II et les risques cardiovasculaires associés, sont maintenant considérés comme un enjeu majeur de santé publique. L'agrégation du polypeptide amyloïde humain des îlots (hIAPP) est liée à une dégénérescence des cel-lules β pancréatiques et à la pathogénèse du diabète de type II. Le mécanisme de la toxi-cité de hIAPP et la nature des espèces concernées (oligomères et/ou fibres) sont loin d'être élucidés, bien que de récentes études ont montré que les oligomères formés lors des étapes précoces du processus pourraient être les plus toxiques. Très peu de tech-niques permettent à l’heure actuelle de suivre cette oligomérisation en temps réel et d’évaluer des inhibiteurs de ce processus pathologique. Au cours de cette thèse, nous avons exploré la CE et l’IMS-MS comme techniques permettant de suivre l’oligomérisation de hIAPP in vitro en temps réel. Une méthode de CE a été développée, permettant d’évaluer de nouveaux inhibiteurs envers cette oligomérisation. Une méthode d’IMS-MS a également été développée pour décrire les interactions formées entre hIAPP et un inhibiteur.Des inhibiteurs peptidomimétiques ont été rationnellement conçus et syn-thétisés afin de déstabiliser les structures β formées lors de l’oligomérisation de hIAPP. L’évaluation de ces composés a permis de mettre en évidence la relation entre leurs structures et leurs activités inhibitrices. Des études de viabilité cellulaire sont en cours afin d’améliorer la compréhension de l’activité de ces molécules. / The rising prevalence of type II diabetes, and associated adverse cardiovascular risks, is now considered as a major public health challenge. The aggregation of human islet amyloid polypeptide (hIAPP) is linked to beta-cell degeneration and to the pathogenesis of type II diabetes. The mechanism of hIAPP toxicity and the species involved (oligomers and/or fibrils) are far to be elucidated, although recent studies have shown that early formed species could be the most toxic species. Very few techniques are currently available to monitor in real time this oligomerization and to evaluate inhibitors of this pathological process. During this PhD project, we investigated CE and IMS-MS as potential techniques to monitor in vitro and in real time the oligomerization of hIAPP. A CE-UV method has been developed, which allows the activity evaluation of new inhibitors. An IMS-MS method has also been developed to investigate the interactions formed between hIAPP and the inhibitors. Peptidomimetics inhibitors have been rationally designed and synthesized in order to destabilize beta-sheets structures formed during the oligomerization process of hIAPP. The evaluation of those compounds revealed a relation between their structures and their inhibitory activities. Cellular viability tests are on-going to get more insights on those molecules activity.
9

Définition et évaluation de modèles d'agrégation pour l'estimation de la pertinence multidimensionnelle en recherche d'information / Definition and evaluation of aggregation model for multidimensional relevance estimation in information retrieval

Moulahi, Bilel 11 December 2015 (has links)
La problématique générale de notre travail s'inscrit dans le domaine scientifique de la recherche d'information (RI). Les modèles de RI classiques sont généralement basés sur une définition de la notion de pertinence qui est liée essentiellement à l'adéquation thématique entre le sujet de la requête et le sujet du document. Le concept de pertinence a été revisité selon différents niveaux intégrant ainsi différents facteurs liés à l'utilisateur et à son environnement dans une situation de RI. Dans ce travail, nous abordons spécifiquement le problème lié à la modélisation de la pertinence multidimensionnelle à travers la définition de nouveaux modèles d'agrégation des critères et leur évaluation dans des tâches de recherche de RI. Pour répondre à cette problématique, les travaux de l'état de l'art se basent principalement sur des combinaisons linéaires simples. Cependant, ces méthodes se reposent sur l'hypothèse non réaliste d'additivité ou d'indépendance des dimensions, ce qui rend le modèle non approprié dans plusieurs situations de recherche réelles dans lesquelles les critères étant corrélés ou présentant des interactions entre eux. D'autres techniques issues du domaine de l'apprentissage automatique ont été aussi proposées, permettant ainsi d'apprendre un modèle par l'exemple et de le généraliser dans l'ordonnancement et l'agrégation des critères. Toutefois, ces méthodes ont tendance à offrir un aperçu limité sur la façon de considérer l'importance et l'interaction entre les critères. En plus de la sensibilité des paramètres utilisés dans ces algorithmes, est très difficile de comprendre pourquoi un critère est préféré par rapport à un autre. Pour répondre à cette première direction de recherche, nous avons proposé un modèle de combinaison de pertinence multicritères basé sur un opérateur d'agrégation qui permet de surmonter le problème d'additivité des fonctions de combinaison classiques. Notre modèle se base sur une mesure qui permet de donner une idée plus claire sur les corrélations et interactions entre les critères. Nous avons ainsi adapté ce modèle pour deux scénarios de combinaison de pertinence multicritères : (i) un cadre de recherche d'information multicritères dans un contexte de recherche de tweets et (ii) deux cadres de recherche d'information personnalisée. Le deuxième axe de recherche s'intéresse à l'intégration du facteur temporel dans le processus d'agrégation afin de tenir compte des changements occurrents sur les collection de documents au cours du temps. Pour ce faire, nous avons proposé donc un modèle d'agrégation sensible au temps pour combinant le facteur temporel avec le facteur de pertinence thématique. Dans cet objectif, nous avons effectué une analyse temporelle pour éliciter l'aspect temporel des requêtes, et nous avons proposé une évaluation de ce modèle dans une tâche de recherche sensible au temps. / The main research topic of this document revolve around the information retrieval (IR) field. Traditional IR models rank documents by computing single scores separately with respect to one single objective criterion. Recently, an increasing number of IR studies has triggered a resurgence of interest in redefining the algorithmic estimation of relevance, which implies a shift from topical to multidimensional relevance assessment. In our work, we specifically address the multidimensional relevance assessment and evaluation problems. To tackle this challenge, state-of-the-art approaches are often based on linear combination mechanisms. However, these methods rely on the unrealistic additivity hypothesis and independence of the relevance dimensions, which makes it unsuitable in many real situations where criteria are correlated. Other techniques from the machine learning area have also been proposed. The latter learn a model from example inputs and generalize it to combine the different criteria. Nonetheless, these methods tend to offer only limited insight on how to consider the importance and the interaction between the criteria. In addition to the parameters sensitivity used within these algorithms, it is quite difficult to understand why a criteria is more preferred over another one. To address this problem, we proposed a model based on a multi-criteria aggregation operator that is able to overcome the problem of additivity. Our model is based on a fuzzy measure that offer semantic interpretations of the correlations and interactions between the criteria. We have adapted this model to the multidimensional relevance estimation in two scenarii: (i) a tweet search task and (ii) two personalized IR settings. The second line of research focuses on the integration of the temporal factor in the aggregation process, in order to consider the changes of document collections over time. To do so, we have proposed a time-aware IR model for combining the temporal relavance criterion with the topical relevance one. Then, we performed a time series analysis to identify the temporal query nature, and we proposed an evaluation framework within a time-aware IR setting.
10

Optimisation de la collecte de données dans les réseaux de capteurs sans fil : application au projet Everblu d’Itron / Data collection optimization in Wireless Sensor Networks : application to the Everblu smart metering Network

Abid, Besem 23 March 2015 (has links)
Les réseaux de capteurs sans fil contiennent de nombreux nœuds capables de recueillir et de transmettre des données de manière autonome. Optimiser la collecte de données est une tâche importante pour ces réseaux. Cette optimisation passe par trois axes: 1. L'agrégation des paquets pour réduire le trafic dans le réseau.2. Éviter les interférences et les collisions de paquets. 3. Une bonne stratégie de déploiement des nœuds. D'abord, nous avons travaillé sur l'agrégation de données dans les réseaux de capteurs. Cette technique permet au réseau de réduire la consommation d'énergie en éliminant les paquets redondants, et en combinant plusieurs paquets pour les envoyer en un seul paquet. Dans notre travail, nous avons considéré les applications temps réel dans les réseaux de capteurs. Nous avons proposé une solution qui combine un clustering multi-niveaux avec un mécanisme de transmission de données entre les clusterheads qui favorise l'agrégation. En outre, nous avons développé une nouvelle approche distribuée pour construire un backbone virtuel dans les réseaux de capteurs. Les nœuds du backbone sont les nœuds d'agrégation. Cette technique permet de réduire la consommation d'énergie et améliore la tolérance aux pannes et ainsi augmente la quantité de données qui atteint la station de base. Ensuite, nous nous sommes concentrés sur la façon dont les capteurs accèdent au canal de transmission via les protocoles MAC afin de diminuer le risque de collision des paquets. L'originalité de notre travail est lié à l'utilisation des nœuds mobiles et les applications temps réel dans les réseaux de capteurs sans fil. En effet, ces deux critères ont toujours été traités de façon séparée. Toute approche développée qui vise à améliorer la performance du réseau ne fonctionne bien qu'avec une bonne stratégie de déploiement sur le terrain. Par conséquent, nous proposons une nouvelle solution pour estimer les positions des différents composants du réseau et nous fournissons un nouvel outil pour aider les techniciens sur terrain lors de l'installation de ces composants. Notre solution de déploiement a été appliquée à un réseau de compteurs intelligents appelé EverBlu. Ce système est une solution de collecte de données sans fil développée par Itron. Il est adapté à tout type de compteur (eau, gaz et chaleur) et pour différentes topologies de sites, que ce soit en milieu urbain ou rural / Wireless sensor networks (WSNs) contain many nodes able to collect and transmit data autonomously. Optimizing data collection is an important issue in these networks. This optimization goes through three axis: 1. Packet aggregation to reduce the traffic in the network. 2. Avoiding interference and packets collision. 3. A good deployment strategy in field. We firstly worked on data aggregation in WSNs which enables the network to reduce energy consumption by removing redundant packets, and by combining packets together and sending them as one packet. In our research, we considered real-time applications in WSNs. For these networks, we proposed a solution that combines a multi-level clustering with a data transmission mechanism between cluster heads that promotes aggregation. In addition, we developed a new distributed approach to construct a virtual backbone in a WSN. The nodes inside the backbone are the aggregator nodes. This technique reduces the energy consumption and enhances fault tolerance which increases the amount of data that reaches the sink even when some nodes fail in the network. Then, we focus on how the sensors access to the transmission channel via Medium Access Control (MAC) protocols in order to decrease the risk of packets collision. The originality of our work is related to mobile nodes and real-time WSN applications. In fact, these two criteria were always treated independently. Any developed approach that aims to enhance the network performance works well only with a good deployment strategy in field. Therefore we propose a new solution to predict the different network components and we provide a new tool to assist the technicians in field while installing these components. Our deployment solution was applied to a smart metering network called EverBlu. This system is a wireless data collection solution developed by Itron. It is suitable for any meter type (Water, Gas and Heat) and for various site topologies, either in urban or rural environments

Page generated in 0.1006 seconds