• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 139
  • 70
  • 19
  • 1
  • 1
  • Tagged with
  • 229
  • 105
  • 49
  • 43
  • 42
  • 41
  • 36
  • 33
  • 31
  • 23
  • 22
  • 21
  • 20
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Développements et applications d'approches protéomiques pour la recherche de cibles du cancer de l’ovaire et de la prostate / Developments and application of proteomics approaches for ovarian and prostate cancer biomarkers hunting

Bonnel, David 20 October 2010 (has links)
Mon travail de thèse a été consacré à l’optimisation et l’utilisation de techniques en protéomique clinique, et plus particulièrement de l’imagerie MALDI, pour la recherche et l’identification de marqueurs pathologiques. C’est pourquoi nous avons, dans un premier temps, développé et appliqué des outils d'analyse statistique basés sur la PCA et la classification hiérarchique, appelés PCA-SDA. Ceux-ci offraient une combinaison intéressante avec l'imagerie MALDI et permettaient une simplification des données, une recherche fine des variations moléculaires au sein du tissu et une classification sur la base des profils moléculaires obtenus localement sur les tissus. Appliquée ensuite sur des études de biopsies de cancer de l’ovaire, cette approche nous a permis de détecter et d’identifier plusieurs marqueurs potentiels jouant un rôle dans la réponse du système immunitaire, l’adhésion et l’invasion tumorale. Or, ces mécanismes sont connus pour impliquer des protéases, les proprotéines convertases, dans la maturation des différentes protéines impliquées dans le développement tumoral. Dans ce contexte, nous avons étudié leur expression dans le cancer de la prostate. Il s’est avéré que seule PACE4 était surexprimée dans cette pathologie et nous avons pu établir son rôle primordial à la fois dans la prolifération cellulaire à l’aide d’études in vitro, et dans l’évasion apoptotique par approche protéomique, suite à l’identification de TRPS1, un facteur de transcription impliqué dans l’apoptose. Le rôle prépondérant de PACE4 fait de cette enzyme une cible thérapeutique potentielle du cancer. / My PhD’s work has been completely devoted to the optimization and the use of technologies in clinical proteomics, especially MALDI imaging, for research and identification of disease markers. Therefore we have initially developed and applied the tools of statistical analysis based on PCA and hierarchical clustering, called PCA-SDA, which offered an interesting combination with MALDI imaging and allow simplification of data, fine search of molecular changes within the tissue and a classification based on molecular profiles obtained locally on the tissues. Then applied on ovarian cancer biopsies study, this approach allowed us to detect and identify several potential markers playing a role in immune response, adhesion and tumor invasion. However, these mechanisms are known to involve proteases, like proprotein-convertases, in the maturation of various proteins implicated in tumor development. In this context, we studied their expression in prostate cancer. It pointed that only PACE4 was over-expressed in this disease and we were able to establish its role in cell proliferation using in vitro analysis and in apoptotic evasion with the identification of TRPS1, a transcription factor involved in apoptosis, by proteomics approach. So, PACE4 is a potential therapeutic target for cancer due to its leading role in tumor cell capacities.
2

Spatial clustering of linkage disequilibrium blocks for genome-wide association studies / Classification spatiale du déséquilibre de liaison pour les études d'association pangénomique

Dehman, Alia 09 December 2015 (has links)
Avec le développement récent des technologies de génotypage à haut débit, l'utilisation des études d'association pangénomiques (GWAS) est devenue très répandue dans la recherche génétique. Au moyen de criblage de grandes parties du génome, ces études visent à caractériser les facteurs génétiques impliqués dans le développement de maladies génétiques complexes. Les GWAS sont également basées sur l'existence de dépendances statistiques, appelées déséquilibre de liaison (DL), habituellement observées entre des loci qui sont proches dans l'ADN. Le DL est défini comme l'association non aléatoire d'allèles à des loci différents sur le même chromosome ou sur des chromosomes différents dans une population. Cette caractéristique biologique est d'une importance fondamentale dans les études d'association car elle permet la localisation précise des mutations causales en utilisant les marqueurs génétiques adjacents. Néanmoins, la structure de blocs complexe induite par le DL ainsi que le grand volume de données génétiques constituent les principaux enjeux soulevés par les études GWAS. Les contributions présentées dans ce manuscrit comportent un double aspect, à la fois méthodologique et algorithmique. Sur le plan méthodologie, nous proposons une approche en trois étapes qui tire profit de la structure de groupes induite par le DL afin d'identifier des variants communs qui pourraient avoir été manquées par l'analyse simple marqueur. Dans une première étape, nous effectuons une classification hiérarchique des SNPs avec une contrainte d'adjacence et en utilisant le DL comme mesure de similarité. Dans une seconde étape, nous appliquons une approche de sélection de modèle à la hiérarchie obtenue afin de définir des blocs de DL. Enfin, nous appliquons le modèle de régression Group Lasso sur les blocs de DL inférés. L'efficacité de l'approche proposée est comparée à celle des approches de régression standards sur des données simulées, semi-simulées et réelles de GWAS. Sur le plan algorithmique, nous nous concentrons sur l'algorithme de classification hiérarchique avec contrainte spatiale dont la complexité quadratique en temps n'est pas adaptée à la grande dimension des données GWAS. Ainsi, nous présentons, dans ce manuscrit, une mise en œuvre efficace d'un tel algorithme dans le contexte général de n'importe quelle mesure de similarité. En introduisant un paramètre $h$ défini par l'utilisateur et en utilisant la structure de tas-min, nous obtenons une complexité sous-quadratique en temps de l'algorithme de classification hiérarchie avec contrainte d'adjacence, ainsi qu'une complexité linéaire en mémoire en le nombre d'éléments à classer. L'intérêt de ce nouvel algorithme est illustré dans des applications GWAS. / With recent development of high-throughput genotyping technologies, the usage of Genome-Wide Association Studies (GWAS) has become widespread in genetic research. By screening large portions of the genome, these studies aim to characterize genetic factors involved in the development of complex genetic diseases. GWAS are also based on the existence of statistical dependencies, called Linkage Disequilibrium (LD) usually observed between nearby loci on DNA. LD is defined as the non-random association of alleles at different loci on the same chromosome or on different chromosomes in a population. This biological feature is of fundamental importance in association studies as it provides a fine location of unobserved causal mutations using adjacent genetic markers. Nevertheless, the complex block structure induced by LD as well as the large volume of genetic data arekey issues that have arisen with GWA studies. The contributions presented in this manuscript are in twofold, both methodological and algorithmic. On the methodological part, we propose a three-step approach that explicitly takes advantage of the grouping structure induced by LD in order to identify common variants which may have been missed by single marker analyses. In thefirst step, we perform a hierarchical clustering of SNPs with anadjacency constraint using LD as a similarity measure. In the second step, we apply a model selection approach to the obtained hierarchy in order to define LD blocks. Finally, we perform Group Lasso regression on the inferred LD blocks. The efficiency of the proposed approach is investigated compared to state-of-the art regression methods on simulated, semi-simulated and real GWAS data. On the algorithmic part, we focus on the spatially-constrained hierarchical clustering algorithm whose quadratic time complexity is not adapted to the high-dimensionality of GWAS data. We then present, in this manuscript, an efficient implementation of such an algorithm in the general context of anysimilarity measure. By introducing a user-parameter $h$ and using the min-heap structure, we obtain a sub-quadratic time complexity of the adjacency-constrained hierarchical clustering algorithm, as well as a linear space complexity in thenumber of items to be clustered. The interest of this novel algorithm is illustrated in GWAS applications.
3

Statistical learning for omics association and interaction studies based on blockwise feature compression / Apprentissage statistique pour les études d'association et d'interactions entre données omiques fondée sur une approche de compression structurée

Guinot, Florent 04 December 2018 (has links)
Depuis la dernière décennie le développement rapide des technologies de génotypage a profondément modifié la façon dont les gènes impliqués dans les troubles mendéliens et les maladies complexes sont cartographiés, passant d'approches gènes candidats aux études d'associations pan-génomique, ou Genome-Wide Association Studies (GWASs). Ces études visent à identifier, au sein d'échantillons d'individus non apparentés, des marqueurs génétiques impliqués dans l'expression de maladies complexes. Ces études exploitent le fait qu'il est plus facile d'établir, à partir de la population générale, de grandes cohortes de personnes affectées par une maladie et partageant un facteur de risque génétique qu'au sein d'échantillons apparentés issus d'une même famille, comme c'est le cas dans les études familiales traditionnelles.D'un point de vue statistique, l'approche standard est basée sur le test d'hypothèse: dans un échantillon d'individus non apparentés, des individus malades sont testés contre des individus sains à un ou plusieurs marqueurs. Cependant, à cause de la grande dimension des données, ces procédures de tests classiques sont souvent sujettes à des faux positifs, à savoir des marqueurs faussement identifiés comme étant significatifs. Une solution consiste à appliquer une correction sur les p-valeurs obtenues afin de diminuer le seuil de significativité, augmentant en contrepartie le risque de manquer des associations n’ayant qu'un faible effet sur le phénotype.De plus, bien que cette approche ait réussi à identifier des marqueurs génétiques associés à des maladies multi-factorielles complexes (maladie de Crohn, diabète I et II, maladie coronarienne,…), seule une faible proportion des variations phénotypiques attendues des études familiales classiques a été expliquée. Cette héritabilité manquante peut avoir de multiples causes parmi les suivantes: fortes corrélations entre les variables génétiques, structure de la population, épistasie (interactions entre gènes), maladie associée aux variants rares,...Les principaux objectifs de cette thèse sont de développer de nouvelles méthodes statistiques pouvant répondre à certaines des limitations mentionnées ci-dessus. Plus précisément, nous avons développé deux nouvelles approches: la première exploite la structure de corrélation entre les marqueurs génétiques afin d'améliorer la puissance de détection dans le cadre des tests d'hypothèses tandis que la seconde est adaptée à la détection d'interactions statistiques entre groupes de marqueurs méta-génomiques et génétiques permettant une meilleure compréhension de la relation complexe entre environnement et génome sur l'expression d'un caractère. / Since the last decade, the rapid advances in genotyping technologies have changed the way genes involved in mendelian disorders and complex diseases are mapped, moving from candidate genes approaches to linkage disequilibrium mapping. In this context, Genome-Wide Associations Studies (GWAS) aim at identifying genetic markers implied in the expression of complex disease and occuring at different frequencies between unrelated samples of affected individuals and unaffected controls. These studies exploit the fact that it is easier to establish, from the general population, large cohorts of affected individuals sharing a genetic risk factor for a complex disease than within individual families, as is the case with traditional linkage analysis.From a statistical point of view, the standard approach in GWAS is based on hypothesis testing, with affected individuals being tested against healthy individuals at one or more markers. However, classical testing schemes are subject to false positives, that is markers that are falsely identified as significant. One way around this problem is to apply a correction on the p-values obtained from the tests, increasing in return the risk of missing true associations that have only a small effect on the phenotype, which is usually the case in GWAS.Although GWAS have been successful in the identification of genetic variants associated with complex multifactorial diseases (Crohn's disease, diabetes I and II, coronary artery disease,…) only a small proportion of the phenotypic variations expected from classical family studies have been explained .This missing heritability may have multiple causes amongst the following: strong correlations between genetic variants, population structure, epistasis (gene by gene interactions), disease associated with rare variants,…The main objectives of this thesis are thus to develop new methodologies that can face part of the limitations mentioned above. More specifically we developed two new approaches: the first one is a block-wise approach for GWAS analysis which leverages the correlation structure among the genomic variants to reduce the number of statistical hypotheses to be tested, while in the second we focus on the detection of interactions between groups of metagenomic and genetic markers to better understand the complex relationship between environment and genome in the expression of a given phenotype.
4

Analyse de systèmes modulaires à l'aide de techniques d'abstractions hiérarchiques / Analysing modular systems with hierarchical abstractions

Le Cornec, Yves-Stan 11 July 2016 (has links)
Dans cette thèse, on s’intéresse au problème de l’explosion combinatoire du model-checking sur des systèmes modulaires. Les techniques d’abstractions hiérarchiques permettent de construire de manière incrémentale une abstraction d’un modèle en composant des abstractions de ses parties. Cette opération doit en outre préserver les propriétés d’intérêt du modèle.Dans un premier temps, on définit le formalisme des réseaux de régulation modulaires, dans le but de pouvoir étudier des systèmes biologiques en utilisant de l’abstraction hiérarchique. On utilise ensuite cette méthode pour détecter les états stables accessibles depuis un état donné sur un modèle multicellulaire intervenant lors du développement embryonnaire de la drosophile. L’opération d’abstraction SAFETY utilisée préserve l’accessibilité de tous les états stable. C’est une réduction classique et générique dans le sens ou elle préserve également toutes les propriétés de sûreté d’un système. Dans un second temps, on suppose que l’on a connaissance de la formule globale (exprimée en μ-calcul) que l’on veut vérifier, ainsi que de l’état initial du module. On défini alors deux opérations de réduction différentes. Ces réductions ont pour seule contrainte de préserver la valeur global de la formule et il est donc possible d’obtenir des réductions plus importantes qu’avec les méthodes génériques (le but reste le même : réduire la taille d’un module ou d’un sous-système donné sans avoir connaissance du reste du système). Lors du calcul de cette réduction, on effectue de l’analyse partielle pour déterminer si le sous-système contient assez d’information pour connaître la valeur de vérité de la for-mule sur le système global. Si c’est le cas, on peut arrêter là l’analyse par abstraction hiérarchique ; sinon, cette étape est tout de même utile pour réduire le module.Enfin, on teste la première de ces réductions à l’aide d’un prototype sur quelques exemples simples. En plus de constater les coefficients de réduction obtenus, cela permet de fournir des données pour s’attaquer par la suite au problème du meilleur ordre d’analyse hiérarchique. C’est en effet un problème difficile et l’ordre d’analyse a une grande influence sur les performances de ces méthodes. / In this thesis, we are interested in limiting the combinatorial explosion that happens when model-checking modular systems. We use hierarchical abstraction techniques, which allow one to build an abstraction of a modular system by composing abstractions of his part, while ensuring that this abstraction does not change the temporal properties we are interested in. At first, we define the modular regulation networks formalism in or-der to apply hierarchical abstraction techniques to the study of biological systems. We then use this approach to find the reachable stable states of a multi-cellular model involved in the development of the fruit fly embryo. For this, we use the abstraction called SAFETY which reduces a system while keeping all of its reachable stable states. This is a classical reduction which is quite general in the sens that it also preserves all the safety properties of the model. After this, we define two new reduction operations, which are dependent on the μ-calculus formula we seek to verify on the global system. We also assume that we know the initial state of the module or sub-system to be reduced. Since these reductions must only preserve the value of one formula over the global system, they should be able to return smaller systems than the general ones. While computing these reductions on one module or sub-system, we use partial analysis techniques to test if it contains enough information to conclude about the truth value of the formula on the global system. If it is the case, we can stop the incremental analysis right away ; otherwise, this step is still useful for the computation of the reduced sub-system. Finally, we use a prototype to test the first one of our reduction operations on some simple examples. This enables us to observe how big the reductions are as well as getting data in order to tackle the problem of the order of analysis in the future. It is a difficult question and an important one since the hierarchical order in which we build the abstraction has a huge weight on the efficiency of these methods.
5

Étude de la dynamique des populations du viroïde de la mosaïque latente du pêcher par séquençage à haut débit et segmentation

Glouzon, Jean-Pierre January 2012 (has links)
Les viroïdes sont des agents pathogènes responsables de maladies affectant les plantes telles que l'avocatier, le pêcher, la tomate, la pomme dé terre, etc. Parce qu'ils dégradent la qualité des fruits et des légumes qu'ils infectent, les viroïdes sont la cause de la perte d'environ 50 % de la production mondiale des cultures touchées. La compréhension des mécanismes couvrant l'infection aux viroïdes constitue un enjeu économique majeur visant l'amélioration de la productivité, dans l'exploitation de ces plantes. Cette étude aborde l'analyse des processus liés à l'infection aux viroïdes par la découverte de nouveaux aspects caractérisant la variabilité génétique du viroïde de la mosaïque latente du pêcher (PLMVd). Elle décrit la dynamique des populations de PLMVd. La grande variabilité de PLMVd, expliquée par un fort taux de mutations, implique la génération de séquences diverses et variées, prenant la forme de nuages. Notre approche pour comprendre cette variabilité génétique de PLMVd consiste à infecter un pêcher à partir d'une seule séquence de PLMVd, puis à en extraire les séquences et analyser leurs caractéristiques intrinsèques par une nouvelle méthode bio-informatique. À notre connaissance, notre étude, à ce jour, est la première à utiliser les récentes techniques de séquençage à haut débit, à des fins d'analyses des viroïdes. La structure relativement simple des viroïdes, brin d'ARN circulaire d'environ 240 à 400 nucléotides, leur confère l'avantage de pouvoir être séquencé dans leur longueur totale par le séquençage à haut débit. Ce dernier couvre de grands volumes de données biologiques, ce qui convient pour séquencer les nuages de séquences qu'on peut retrouver au sein de la population de PLMVd. En bio-informatique, il existe de nombreux algorithmes permettant de comparer des séquences pour en extraire de l'information. L'un des défis majeurs de ces algorithmes est la prise en charge efficace et rapide de quantité de données en constante croissance. Dans le cadre de notre étude, le volume de séquences généré par PLMVd rend impraticable l'application des algorithmes d'alignement pour comparer les séquences et en estimer leurs similarités. D'autres algorithmes tels que ceux basés sur les N-grammes impliquent une perte partielle de l'information contenue dans les séquences. Nous avons donc utilisé une mesure de similarité basée sur le modèle de probabilité conditionnelle (CPD) qui nous permet d'une part, de conserver l'information sous forme de patrons (sous-séquences) contenus dans les séquences, et d'autre part, d'éviter l'alignement de séquences tout en comparant directement chaque séquence avec un ensemble de séquences. Le modèle CPD est intégré dans un nouvel algorithme de segmentation pour les séquences catégoriques, appelé DHCS. Cette étude révèle de nouveaux aspects dans la variabilité génétique de PLMVd. En effet, elle nous a permis d'une part d'extraire des familles de séquences caractérisées par des mutations spécifiques, puis d'autre part, de représenter la distribution de ces mutations dans une arborescence. Par la suite, elle a favorisé l'observation de mutations localisées dans le noyau d'un motif particulier, nommé le ribozyme en tête de marteau des séquences, servant à l'amélioration de l'adaptation de PLMVd. Celui-ci est effectivement sujet à mutations parce que la séquence inoculée au pêcher après 6 mois d'infections n'a pas été retrouvée et que le nombre de mutations enregistrées varie de 2 à 51. Des deux librairies obtenues, nous avons répertorié 1125 et 1061 séquences pour un total de 2186 nouvelles séquences de PLMVd. Seules 300 séquences étaient connues à ce jour. Nous avons observé que les séquences possèdent, selon la librairie, en moyenne 4.6 et 6.3 mutations par rapport à la séquence inoculée. Certaines d'entre elles ont jusqu'à 20 % de dissimilarité par rapport à la séquence inoculée, ce qui est considérable. Grâce à DHCS, les différentes séquences ont pu être groupées en familles, au nombre de 7 et 8 selon la librairie.
6

Segmentation hiérarchique du domaine sémantique pour l'accélération d'un modèle de langage

Morin, Frédéric January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
7

Système de recommandations utilisant une combinaison de filtrage collaboratif et de segmentation pour des données implicites

Renaud-Deputter, Simon January 2013 (has links)
Avec la montée de la technologie et la facilité d'accès à Internet, les utilisateurs sont submergés par un large éventail de choix disponibles et une quantité considérable d'informations [6]. Il devient nécessaire d'avoir accès à des outils et des techniques efficaces pour filtrer les données et de les rendre utilisables pour des opérations de tous les jours. À cette fin, des systèmes de recommandations, qui ont fait l'objet de recherche active et de développement au cours des 15 dernières années, sont maintenant capables de fournir aux utilisateurs des choix [51] sur ce qu'ils aimeraient lire, acheter, regarder, manger, etc. La problématique étudiée dans ce mémoire est l'utilisation d'informations implicites pour construire des systèmes de recommandations en utilisant une approche par filtrage collaboratif. Beaucoup de travaux ont été faits sur l'utilisation de filtrage collaboratif à l'aide d'informations explicites telles que les cotes [48], [43], [19], [33]. Cependant, les techniques développées pour les systèmes de recommandations comprenant des articles sans informations explicites restent rudimentaires. Le plus grand défi vis-à-vis les systèmes de recommandations à informations implicites est l'absence de rétroaction de la part de l'utilisateur si nous n'utilisons pas un expert comme par exemple, un vendeur. En outre, comme il est mentionné dans [51], lorsque qu'un système avec cote existe, la proportion des éléments évalués est souvent inférieure à 1%. Par conséquent, même pour les systèmes de recommandations qui utilisent des informations explicites telles que les cotes, il est crucial d'avoir une méthode qui tire profit des informations implicites. Les progrès dans ce domaine sont timides depuis les dernières années. Il y a eu des études sur les recommandations par rapport aux médias sociaux en se basant sur des utilisateurs et des mots-clés [18], la modélisation probabiliste [30] et la modélisation sémantique basée sur la recommandation de nouvelles [29]. S'il est vrai que ces techniques utilisent des informations implicites, seuls quelques-uns [40], [23] abordent la question de recommander des produits d'un magasin sans l'utilisation d'informations explicites. Ces méthodes nécessitent généralement la disponibilité d'un expert afin de prendre la rétroaction d'un client ou le réglage de nombreux paramètres. Dans notre étude, nous avons réussi à élaborer un algorithme permettant de soumettre des recommandations personnelles à un utilisateur en utilisant seulement des informations implicites. Notre technique, lorsque comparée à un système semblable qui utiliserait des cotes comme informations explicites, génère de très bons résultats. De plus, lorsque la méthode développée est comparée à d'autres systèmes utilisant de l'information implicite, elle offr des résultats qui sont comparables et parfois supérieurs à ceux-ci.
8

Contribution du rayonnement au confort thermique et aux économies d'énergie dans l'habitat / Contribution of Radiant Heating to Thermal Comfort and Energy Saving in Buildings

Le Bohec, Mickaël 06 December 2017 (has links)
Pour réduire la consommation énergétique des bâtiments, les systèmes de chauffage agissant par rayonnement semblent particulièrement intéressants puisqu'ils ne nécessitent pas de chauffer l'air de la pièce pour que leur action soit perçue (moins d'énergie dépensée et moins de déperditions) et qu'jls permettent une meilleure réactivité au mode de vie des utilisateurs. De plus, des expériences réalisées au MIT ont montré que nous préférons un air frais et des murs chauds plutôt que le contraire, ce qui milite en paveur du chauffage par rayonnement. L'objectif de ce travail est de développer un outil permettant de paire le lien entre le rayonnement échangé entre un occupant et son environnement et le confort qu'il exprime vis-a- vis de celui-ci. L'étude des transferts radiatifs dans l'habitat peut se ramener a la résolution de l'équation des radiosités. Celle-ci nécessite l'évaluation de couplages géométriques entre les éléments de la scène appelés facteurs de forme. Leur obtention est particulièrement ardue, notamment lorsqu'il s'agit de tenir compte d'éventuelles obstructions. Une comparaison des méthodes numériques disponibles pour cela est proposée. Outre l'évaluation de ces facteurs, le système a résoudre est très lourd, puisque chaque surface interagit, le plus souvent, avec toutes les autres et que le nombre de nœuds mis en jeu dans la description d'une scène complexe est important. Nous présentons une méthode de résolution qui raffine le maillage d'une scène tout en construisant simultanément une représentation a différentes échelles des facteurs de forme entre ses éléments, dans le but de ne pas calculer tous les échanges a la résolution la plus fine. Elle permet ainsi de réduire considérablement le temps de calcul et rend son utilisation possible en bureau d'étude.une fois que les transferts radiatifs entre un individu, la source de chauffage et différents éléments de l'environnement sont connus, le modèle de confort de Fanger est mis en oeuvre pour déterminer si les configurations envisagées sont confortables ou non, au regard des normes en vigueur dans le bâtiment. Ainsi, nous avons pu déterminer quels types d'appareils de chauffage sont les plus susceptibles d'apporter du confort, dans diverses situations, et sans accroitre la puissance consommée. / In order to reduce building's energy consumption, radiant heater seems particularly attractives because they didn't require to heat the air of the room to be perceived (less energy spent and less losses), and because they provide a better reactivity to users life rythmes. Moreover, experiences of the MIT showed that we prefer a fresh ai with warm wall rather than the opposite. The goal of the work is to develop a tool to study the link between the radiant energy exchange by an occupant with his environment and the thermal comfort express under some hypothesis, radiative beat transfers can be idealized by the radiosity equation. This one needs the evaluation of geometrics couplings between the elements of the scene called form factors or view factors. It's generally hard to get them, especially when there are obstructions. A comparison of existing numerical methods is proposed. beyond the evaluation of those factors, the algebraic system is heavy to solve because each surface interact, usually, with all the others and because the number of nodes required for the description of a complexe scene is important. We present a resolution method which refine the mesh of the scene while constructing a multi scale representation of form factors between its elements, in order to don't have to compute all the transfers at the finest resolution. This drastically reduce the computation time and allow to use this method in a industrial development process.When the radiative transfers between the occupant, heaters and differents elements of the environment are known, the thermal comfort model of fanger is used to determine if the considered env!ronments are confortable or not, according to international standards. This way, we could find which type of heaters are the most subject to provide thermal comfort without increasing energy consumption.
9

Resources protection : towards replacement of cotton fiber with polyester / Protection des ressources : vers le remplacement du coton par du polyester

Kamalha, Edwin 28 May 2019 (has links)
La demande annuelle de coton augmente en raison de la croissance démographique mondiale et de l’évolution des comportements d’achat des consommateurs. D'autres options de fibres naturelles telles que la laine, le lin et la soie, entre autres, sont produites dans des proportions très maigres. Le polyester (poly (téréphtalate d’éthylène) (PET) présente des qualités qui pourraient répondre à cette préoccupation pour les vêtements. Malheureusement, les consommateurs hésitent à porter des vêtements 100% polyester, principalement en raison d’un confort sensoriel inférieur, du toucher et parfois de leur apparence. Cette étude visait à améliorer le tissu en PET caractéristiques afin de réduire l'écart entre la perception humaine et la performance hydrophile du coton par rapport au PET Pour déterminer la disparité existant entre le coton et les tissus tissés en PET, une étude multisensorielle a été réalisée à l'aide d'un panel de 12 juges formés sur 11 descripteurs sensoriels. Des algorithmes de Monte Carlo, des algorithmes génétiques et la technique de Borda Count (BK) ont été utilisés pour la fusion de rangs .L'analyse en composantes principales (PCA) et la classification hiérarchique par agglomération (AHC) ont été utilisées pour créer des profils sensoriels. Tissus en PET et en coton (p = 0,05). Il a été déduit que l’aspect visuel et esthétique peut être utilisé pour distinguer le PET du tissus de coton. Pour remplacer le coton par du PET via cette approche sensorielle, la modification de la rigidité des tissus en polyester a été judicieusement réalisée à l'aide de NaOH et d'un adoucissant en silicium, avec une pré-oxydation au plasma atmosphérique. Les tissus en PET traités avec NaOH et l’adoucissant en silicone ont été perçus comme étant doux, lisses, moins nets et moins raides par rapport à certains tissus en coton et en PET non traité. Le profilage des tissus indique que les tissus en PET conventionnels peuvent être distingués des tissus en coton conventionnels en utilisant une évaluation à la fois subjective et objective. Il est également avancé que la perception sensorielle humaine sur textile ne peut être directement représentée par des mesures instrumentales. La dernière partie de l’étude compare le potentiel hydrophile et l’efficacité de deux monomères vinyliques: le poly- (éthylène glycol) diacrylate (PEGDA) et le chlorure de [2- (méthacryloyloxy) éthyl] triméthylammonium (METAC) radicalement photo-greffé sur la surface de Tissu en PET. Une étude de surface utilisant la spectroscopie photoélectronique à rayons X (XPS) et la spectroscopie à dispersion d'énergie (EDS) a confirmé le greffage. Les tests d'humidité indiquent que PEGDA et METAC induisent un mouillage complet du PET à des concentrations de 0,1 à 5% (V: V). Les mesures colorimétriques (K/S et CIELAB/CH) et la stabilité de la couleur sur les tissus teints en PET suggèrent que les deux monomères améliorent considérablement l'efficacité de la teinture du PET. Il est suggéré que PEGDA et METAC génèrent des groupes hydrophiles sur le PET; les macroradicaux sont sous la forme de structures vinyliques qui forment des greffes à chaîne courte et démontrent une fonction hydrophile. Les résultats de cette recherche peuvent jouer un rôle directeur pratique dans la conception des tissus, la conception des propriétés sensorielles et contribuer au développement de tissus en polyester de type coton. / There is increasing annual demand for cotton due to world population growth and changes in consumers’ purchasing behavior. Other natural fiber options such as wool, linen and silk among others, are produced in very meager proportions. Polyester (poly(ethylene terephthalate) (PET) has qualities that could address this concern for apparel. Unfortunately, consumers are reluctant to wear 100% polyester clothing mainly due to inferior sensory comfort, touch and sometimes appearance. This study sought to improve PET fabric characteristics in order to decrease the gap between human perception and hydrophilic performance of cotton vs. PET. To determine the disparity between cotton and PET woven fabrics, a multisensory study was undertaken using a panel of 12 trained judges against 11 sensory descriptors. Cross-entropy Monte Carlo algorithms, Genetic algorithms, and the Borda Count (BK) technique were used for rank fusion. Principle component analysis (PCA) and agglomerative hierarchical clustering (AHC) were used to create sensory profiles. The descriptor crisp accounted for the highest variability between PET and cotton fabrics (p˂0.05). It was deduced that visual and aesthetics can be used to distinguish between PET and cotton fabrics. To replace cotton with PET via this sensory approach, the modification of stiffness of polyester fabrics was judiciously carried out using NaOH and a silicon softener, with atmospheric air plasma pre-oxidation. PET fabrics treated with NaOH and the silicon softener were perceived soft, smooth, less crisp, and less stiff compared to some cotton and untreated PET fabrics. The profiling of fabrics indicates that conventional PET fabrics can be distinguished from conventional cotton fabrics using both subjective and objective evaluation. It is also argued that textile human sensory perception cannot be directly represented by instrumental measurements. The final part of the study compares the hydrophilic potential and efficacy of two vinyl monomers: Poly-(ethylene glycol) diacrylate (PEGDA) and [2-(methacryloyloxy) ethyl]-trimethylammonium chloride (METAC) radically photo-grafted on the surface of PET fabric. Surface study using X-ray photoelectron spectroscopy (XPS) and Energy Dispersive Spectroscopy (EDS) confirmed the grafting. Moisture tests indicate that PEGDA and METAC induce complete wetting of PET at concentrations 0.1-5% (V:V). Colorimetric measurements (K/S and CIELAB/CH) and colorfastness on dyed PET fabrics suggest that both monomers greatly improve the dyeing efficiency of PET. It is suggested that PEGDA and METAC generate hydrophilic groups on PET; the macroradicals are in a form of vinyl structures which form short chain grafts and demonstrate hydrophilic function. The results of this research can play a practical guiding role in the design of fabrics, sensory property design and contribute to the development of cotton-like polyester fabrics.
10

Mécanismes pour la cohérence, l'atomicité et les communications au niveau des clusters : application au clustering hiérarchique distribué adaptatif / Mechanism for coherence, atomicity and communications at clusters level : application to adaptative distributed hierarchical clustering

Avril, François 29 September 2015 (has links)
Nous nous intéressons dans cette thèse à l'organisation des systèmes distribués dynamiquesde grande taille : ensembles de machines capables de communiquer entre elles et pouvant à toutinstant se connecter ou se déconnecter. Nous proposons de partitionner le système en groupesconnexes, appelés clusters. Afin d'organiser des réseaux de grande taille, nous construisons unestructure hiérarchique imbriquée dans laquelle les clusters d'un niveau sont regroupés au seinde clusters du niveau supérieur. Pour mener à bien ce processus, nous mettons en place desmécanismes permettant aux clusters d'être les noeuds d'un nouveau système distribué exécutantl'algorithme de notre choix. Cela nécessite en particulier des mécanismes assurant la cohérence decomportement pour le niveau supérieur au sein de chaque cluster. En permettant aux clusters deconstituer un nouveau système distribué exécutant notre algorithme de clustering, nous construisonsune hiérarchie de clusters par une approche ascendante. Nous démontrons cet algorithme endéfinissant formellement le système distribué des clusters, et en démontrant que chaque exécutionde notre algorithme induit sur ce système une exécution de l'algorithme de niveau supérieur. Celanous permet, en particulier, de démontrer par récurrence que nous calculons bien un clusteringhiérarchique imbriqué. Enfin, nous appliquons cette démarche à la résolution des collisions dansles réseaux de capteurs. Pour éviter ce phénomène, nous proposons de calculer un clusteringadapté du système, qui nous permet de calculer un planning organisant les communications ausein du réseau et garantissant que deux messages ne seront jamais émis simultanément dans laportée de communication de l'un des capteurs / To manage and handle large scale distributed dynamic distributed systems, constitutedby communicating devices that can connect or disconnect at any time, we propose to computeconnected subgraphs of the system, called clusters. We propose to compute a hierarchical structure,in which clusters of a level are grouped into clusters of the higher level. To achieve this goal,we introduce mechanisms that allow clusters to be the nodes of a distinct distributed system,that executes an algorithm. In particular, we need mechanisms to maintain the coherence of thebehavior among the nodes of a cluster regarding the higher level. By allowing clusters to be nodesof a distributed system that executes a clustering algorithm, we compute a nested hierarchicalclustering by a bottom-up approach. We formally define the distributed system of clusters, andprove that any execution of our algorithm induces an execution of the higher level algorithm onthe distributed system of clusters. Then, we prove by induction that our algorithm computes anested hierarchical clustering of the system. Last, we use this approach to solve a problem thatappears in sensor networks : collision. To avoid collisions, we propose to compute a clusteringof the system. This clustering is then used to compute a communication schedule in which twomessages cannot be sent at the same time in the range of a sensor

Page generated in 0.0389 seconds