• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 18
  • 1
  • 1
  • Tagged with
  • 79
  • 35
  • 16
  • 11
  • 11
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Modélisation, simulation et quantification de lésions athéromateuses en tomographie par émission de positons / Numerical modeling, simulation and quantification of atheromatous lesions in positron emission tomography

Huet, Pauline 06 July 2015 (has links)
Les pathologies cardio-vasculaires d’origine athéroscléreuse, premières causes de mortalité dans les pays occidentaux, sont insuffisamment prises en charge par les outils de dépistage et de suivi thérapeutique actuels. La Tomographie par Emission de Positons (TEP) est susceptible d’apporter au clinicien des outils puissants pour le diagnostic et le suivi thérapeutique des patients, en particulier grâce au traceur Fluorodésoxyglucose marqué au fluor 18 ([18F]-FDG). Cependant, l’Effet de Volume Partiel (EVP), dû notamment à la résolution spatiale limitée dans les images (plusieurs millimètres) en regard des faibles dimensions (de l’ordre du millimètre) des VOlumes d’Intérêt (VOIs), et les fluctuations statistiques du signal mesuré présentent des défis pour une quantification fiable.Un modèle original de lésion athéromateuse, paramétré par ses dimensions et sa concentration d’activité, a été développé et des simulations Monte-Carlo d’acquisitions TEP au [18F]-FDG de 36 lésions ont été produites. A partir des acquisitions simulées, nous avons montré que le nombre d’itérations des reconstructions itératives, le post-filtrage appliqué et le moyennage dans le VOI,paramètres relevés comme hautement variables dans une revue de la littérature dédiée, peuvent induire des variations des valeurs de fixation mesurées d’un facteur 1.5 à 4. Nous avons montré qu’une modélisation de la réponse du tomographe pouvait réduire le biais de mesure d’environ 10% par rapport au biais mesuré sur une image reconstruite avec un algorithme itératif standard et pour un niveau de bruit comparable. Sur les images reconstruites, nous avons montré que la fixation mesurée reste très biaisée (sous-estimation de plus de 50% du SUV réel) et dépend fortement des dimensions de la lésion à cause de l’EVP. Un contraste minimum de 4 par rapport à l’activité sanguine est nécessaire pour qu’une lésion soit détectée. Sans correction d’EVP, la mesure présente une corrélation faible avec la concentration d’activité, mais est très corrélée à l’activité totale dans la lésion. L’application d’une correction d’EVP fournit une mesure moins sensible à la géométrie de la lésion et plus corrélée à la concentration d’activité mais réduit la corrélation à l’activité totale dans la lésion.En conclusion, nous avons montré que l’intégralité de la fixation du [18F]-FDG dans les lésions athéromateuses inflammatoires totale peut être caractérisée sur les images TEP. Cette estimée ne requiert pas de correction de l’EVP. Lorsque la concentration d’activité dans la lésion est estimée, les mesures sont très biaisées à cause de l’EVP. Ce biais peut être réduit en mesurant le voxel d’intensité maximale, dans les images reconstruites sans post-filtrage avec au moins 80 itérations incluant un modèle de réponse du détecteur. La mise en œuvre d’une correction d’EVP facilite la détection des changements d’activité métabolique indépendamment de changements de dimensions de la zone siègede l’inflammation. Une quantification absolue exacte de la concentration d’activité dans les lésions ne sera possible que via une amélioration substantielle de la résolution spatiale des détecteurs TEP. / Cardiovascular disease is the leading cause of death in western countries. New strategies and tools for diagnosis and therapeutic monitoring need to be developed to manage patients with atherosclerosis, which is one major cause of cardiovascular disease. Fluorodeoxyglucose Positron Emission Tomography (FDG-PET) is a powerful imaging technique that can detect at early stages plaques prone to rupture. Yet, Partial Volume Effect (PVE), due to the small lesion dimensions (around 1 mm) with respect to the scanner spatial resolution (around 6 mm full width at half maximum), and statistical variations considerably challenge the precise characterization of plaques from PET images. An original model of atheromatous lesion parameterized by its dimensions and activity concentration, was developed. Thirty six Monte Carlo simulations of FDG-PET acquisitions were produced. Based on the simulations, we showed that the number of iterations in iterative reconstructions, the post filtering of reconstructed images and the quantification method in the Volume Of Interests (VOI) varied sharply in an analysis of the dedicated literature. Changes in one of these parameters only could induce variations by a factor of 1.5 to 4 in the quantitative index. Overall, inflammation remained largely underestimated (> 50% of the real uptake). We demonstrated that modeling the detector response could reduce the bias by 10% of its value in comparison to a standard OSEM recontruction and for an identical level of noise. In reconstructed images, we showed that the measured values depended not only on the real uptake but also on the lesion dimensions because of PVE. A minimum contrast of 4 with respect to blood activity was required for the lesion to be observable. Without PVE correction, the measured values exhibited a correlation with activity concentration but were much more correlated with the total uptake in the lesion. Applying a PVE correction leads to an activity estimate that was less sensitive to the geometry of the lesion. The corrected values were more correlated to the activity concentration and less correlated to the total activity. In conclusion, we showed that the total activity in inflammatory lesions could be assessed in FDG-PET images. This estimate did not require PVE correction. Tracer concentration estimates are largely biased due to PVE, and the bias can be reduced by measuring the maximum voxel in the lesion in images reconstructed with at least 80 iterations and by modeling the detector response. Explicit PVE correction is recommended to detect metabolic changes independent of geometric changes. An accurate estimation of plaque uptake will however require the intrinsic spatial resolution of PET scanners to be improved.
Read more
22

Validation de modèles de systèmes sur puce en présence d'ordonnancements indéterministes et de temps imprécis

Helmstetter, Claude 26 March 2007 (has links) (PDF)
Ces travaux portent sur la validation de modèles de systèmes sur puce (SoC) au niveau transactionnel (TLM). Ces modèles servent notamment au développement du logiciel embarqué. Le matériel est intrinsèquement parallèle mais le simulateur utilise un seul processeur. Les principales entités parallèles du matériel (processeurs, DMA, arbitres de bus, ...) sont représentées en TLM par des processus asynchrones, qui doivent être ordonnancés lors des simulations. Cet ordonnancement est indéterministe afin de mieux représenter le parallélisme physique.<br /><br />Cela pose un problème pour la validation par simulations : il faut couvrir l'espace des ordonnancements en plus de celui des données. En effet, un ordonnanceur déterministe peut cacher des erreurs, car il ne montre qu'un comportement parmi d'autres. Des ordonnancements aléatoires permettent d'observer plus de comportements mais la couverture est incertaine. Un parcours exhaustif de tous les ordonnancements serait beaucoup trop long pour des tests réels.<br /><br />Nous présentons une solution pour couvrir efficacement l'espace des ordonnancements. Celle-ci est basée sur de la réduction d'ordre partiel dynamique. L'idée est d'observer l'influence de l'ordonnancement sur les communications entre processus, pour générer dynamiquement de nouveaux ordonnancements, menant très probablement à des états finaux différents. En itérant sur chaque nouvel ordonnancement, nous obtenons un jeu complet d'ordonnancements, qui garantit la détection, pour un jeu fixé de données, de toutes les erreurs locales et de tous les inter-blocages.<br /><br />Toujours avec l'objectif d'une meilleure représentativité du matériel, les développeurs ont ajouté du temps imprécis à leurs modèles TLM, sous forme de délais bornés. Pour la validation par simulations, cela oblige à couvrir aussi l'espace des temporisations. Nous présentons une extension à la réduction d'ordre partiel dynamique pour résoudre ce problème. Le nouvel algorithme et son prototype retournent un ensemble de jeux de durées, qui garantit de nouveau la détection complète des erreurs locales et inter-blocages pour des données fixées.<br /><br />Enfin, nous étudions comment paralléliser le simulateur SystemC afin de profiter des machines multiprocesseurs, tout en respectant la spécification de SystemC et les particularités des modèles TLM.
Read more
23

Vérification Formelle d'Algorithmes Distribués en PlusCal-2

Akhtar, Sabina 09 May 2012 (has links) (PDF)
La conception d'algorithmes pour les systèmes concurrents et répartis est subtile et difficile. Ces systèmes sont enclins à des blocages et à des conditions de course qui peuvent se produire dans des entrelacements particuliers d'actions de processus et sont par conséquent difficiles à reproduire. Il est souvent non-trivial d'énoncer précisément les propriétés attendues d'un algorithme et les hypothèses que l'environnement est supposé de satisfaire pour que l'algorithme se comporte correctement. La vérification formelle est une technique essentielle pour modéliser le système et ses propriétés et s'assurer de sa correction au moyen du model checking. Des langages formels tels TLA+ permettent de décrire des algorithmes compliqués de manière assez concise, mais les concepteurs d'algorithmes trouvent souvent difficile de modéliser un algorithme par un ensemble de formules. Dans ce mémoire nous présentons le langage PlusCal-2 qui vise à allier la simplicité de pseudo-code à la capacité d'être vérifié formellement. PlusCal-2 améliore le langage algorithmique PlusCal conçu par Lamport en levant certaines restrictions de ce langage et en y ajoutant de nouvelles constructions. Notre langage est destiné à la description d'algorithmes à un niveau élevé d'abstraction. Sa syntaxe ressemble à du pseudo-code mais il est tout à fait expressif et doté d'une sémantique formelle. Des instances finies d'algorithmes écrits en PlusCal-2 peuvent être vérifiées à l'aide du model checker tlc. La deuxième contribution de cette thèse porte sur l'étude de méthodes de réduction par ordre partiel à l'aide de relations de dépendance conditionnelle et constante. Pour calculer la dépendance conditionnelle pour les algorithmes en PlusCal-2 nous exploitons des informations sur la localité des actions et nous générons des prédicats d'indépendance. Nous proposons également une adaptation d'un algorithme de réduction par ordre partiel dynamique pour une variante du model checker tlc. Enfin, nous proposons une variante d'un algorithme de réduction par ordre partiel statique (comme alternative à l'algorithme dynamique), s'appuyant sur une relation de dépendance constante, et son implantation au sein de tlc. Nous présentons nos résultats expérimentaux et une preuve de correction.
Read more
24

Conception et formalisation d'une application de visioconférence coopérative. Application et extension pour la téléformation

Owezarski, Philippe 20 December 1996 (has links) (PDF)
Les progrès récents dans le domaine de l'informatique et des réseaux de communications ont ouvert la voie aux applications distribuées multimédias coopératives. La problématique associée à la conception de telles applications comporte plusieurs points. Tout d'abord, les données multimédias se caractérisent par leur qualité de service en termes de fiabilité, de débit engendré, de synchronisation temporelle¿ Les applications multimédias doivent donc garantir le respect de la qualité de service de chacun des médias, le point essentiel consistant à assurer le respect des contraintes de synchronisation intra et inter-flux. De même, le support de communication doit pouvoir s'adapter aux contraintes des médias transportés et fournir un service adéquat en terme de débit, fiabilité, délai de bout en bout¿ Enfin, les utilisateurs ont de plus en plus besoin de travailler en groupe pour leurs applications informatiques, et des mécanismes de coopération doivent être introduits. Dans cette thèse, des mécanismes ont été proposés pour répondre à cette problématique et ont été mis en oeuvre dans le cadre d'une application de visioconférence. Ainsi, la synchronisation multimédia est réalisée par un moteur utilisant des mécanismes avancés des systèmes opératoires et respectant un scénario modélisé par un réseau de Petri à flux temporels. La communication utilise un transport à ordre partiel qui s'adapte bien aux contraintes de cette application autant en terme de débit que de fiabilité, et permet d'en augmenter les performances. Enfin, cette visioconférence a été étendue pour prendre en compte des notions de travail de groupe et offre, en particulier, un contrôle des entrées/sorties des participants et des interactions au sein du groupe. Une architecture générale garantissant ces contraintes temporelles et de coopération a ainsi été proposée et réalisée. Enfin, ces techniques ont été appliquées à une application de téléformation professionnelle dans le domaine de l'aéronautique.
Read more
25

Architecture de communication multimédia et multi-réseaux

Berthou, Pascal 13 December 2001 (has links) (PDF)
Les progrès récents dans le domaine des technologies de communications ont ouvert la voie à de nouveaux réseaux et les applications multimédias distribuées se sont développées. Elles ont pour principales caractéristiques des débits élevés, des flux continus avec de fortes contraintes temporelles, et des besoins en synchronisation pour préserver la cohérence de leur présentation. Les réseaux de communication actuels ne pouvant tout offrir à la fois (hauts débits, qualité et respect des contraintes temporelles), la multiplicité des supports de communication et des services permet d'envisager une nouvelle voie : le choix du support de communication en fonction des contraintes de l'application. Si cette multiplicité possède des attraits, elle recèle aussi de nombreuses difficultés qu'il faut maîtriser comme l'hétérogénéité des services de bout en bout. Ceci nous a conduit à concevoir et à réaliser une nouvelle architecture de communication " multi-réseaux " prenant en compte les besoins spécifiques des applications multimédias. D'une part, lorsque plusieurs réseaux sont accessibles, un protocole permettant de sélectionner la meilleure interface de communication en fonction des besoins spécifiques des flux multimédias a été défini. Afin de préserver la synchronisation multimédia, des mécanismes d'ordres partiels sont intégrés au protocole. D'autre part, lorsque des domaines très hétérogènes doivent être traversés par un flux, une solution qui permet de préserver la qualité de service des protocoles de transport est proposée. Elle est basée sur le principe de la rupture des connexions transport par des proxys situés en bordure de domaine. Un modèle de flux associant un langage de spécification des flux multimédias à des mécanismes de traitement de ces flux par le protocole est proposé pour formaliser les spécifications de qualité de service. Enfin, cette thèse a contribué à développer des mécanismes de déploiement dynamique de protocoles de t ransport.
Read more
26

Perdus dans la transition ? Les usages sociaux du travail à temps partiel féminin entre anciennes et nouvelles logiques

Insarauto, Valeria 25 January 2013 (has links) (PDF)
Cette thèse porte sur les logiques de développement de la forte féminisation du travail à temps partiel à la lumière de la diversification des usages sociaux de cette forme d'emploi au cours des années 2000. L'objectif général de ce travail de recherche est celui de comprendre si et comment de tels usages sont susceptibles de donner lieu à de nouvelles configurations progressivement moins sexuées d'articulation travail-vie privée. Tout en posant la question des effets négatifs de cette forme d'emploi sur les trajectoires professionnelles des femmes, la thèse remet en question la perspective dualiste qui a jusqu'ici caractérisé le débat sociologique sur ce thème et qui a laissé peu de place à l'étude de la possibilité d'utiliser le travail à temps partiel comme une stratégie d'intégration ou une phase de transition. La comparaison entre la France et l'Italie est utilisée en tant que véritable stratégie de recherche et représente l'arrière-plan sur lequel est projetée l'analyse quantitative en perspective pseudo-panel des données fournies par les Enquêtes Emploi des deux pays. La spécificité des pratiques d'usage du travail à temps partiel mises en place par les femmes ressort comme un important facteur de changement. Ces pratiques prennent forme dans des contextes institutionnels et socio-économiques qui engendrent différents types de contraintes et d'opportunités à l'élaboration des pratiques individuelles d'articulation travail-vie privée, pointant sur la complexité des enjeux sociétaux que celles-ci incarnent.
Read more
27

Navigation sûre en environnement dynamique: une approche par planification de mouvement partiel

Petti, Stéphane Renaud 11 July 2007 (has links) (PDF)
Enjeux : Depuis plus de dix ans aux USA, en Europe ou au Japon, nous observons un effort grandissant dans la recherche et le développement, dans le domaine du transport. En réponse aux problèmes de congestion, pollution et sûreté, soulevés par l'utilisation croissante des voitures en milieu urbain, de nouveaux modes de transport ont été proposés. Ils s'appuient sur l'utilisation de véhicules individuels circulant sur site urbain (projet Praxitèle en France, ICVS de Honda au Japon) ou sur site dédié (Parkshuttle aux Pays-Bas, Serpentine en Suisse, IMTS de Toyota au Japon). Dans le long terme, il est envisagé d'équiper ce type de véhicules afin de les rendre complètement autonomes. Cependant, le développement de voitures complètement autonomes ne peut être réalisé qu'en prenant en compte la nature particulière de l'environnement: nous sommes confrontés ici à des environnements peuplés d'obstacles mobiles (autres voitures ou piétons), capable de se mouvoir à des vitesses élevées et dont le mouvement future est à priori inconnu. A ce jour, le problème de navigation autonome dans ce type d'environnement reste largement ouvert. Positionnement du sujet : Notre travail aborde le problème de navigation autonome en milieu dynamique partiellement connu. Ce problème a généré de nombreux travaux durant les dix dernières années. Néanmoins, nous avons observé que certains aspect fondamentaux liés à la nature dynamique de l'environnement ont été oubliés, en commençant par la limite de temps qu'un système placé dans un environnement dynamique a, pour prendre une décision et exécuter son mouvement. Bien que cette contrainte soit d'importance cruciale, il y a paradoxalement peu de travaux dans la littérature la prennent en compte. Cette contrainte temps réel a été placée au coeur de notre travail. Résultats : Dans ce travail nous présentons une technique de planification qui prend en compte de manière explicite la contrainte temps réel imposée par l'environnement dynamique. La planification de mouvement partiel (PMP) est une technique originale de planification qui réagit à tout moment; dès que le temps imparti pour calculer une trajectoire est écoulé, la meilleure trajectoire calculée disponible est transmise. En fait, de notre point de vue, l'approche PMP est la meilleure approche possible au problème que nous avons observé, à savoir l'incompatibilité intrinsèque entre la planification en environnement dynamique et la contrainte temps réelle. PMP intègre également le problème de sûreté, que nous considérons d'un point de vue des états de collisions inévitables (ICS), concept récent qui englobe toutes les approches existantes et de proposer une technique qui donne de fortes garanties de sûreté pour notre système. Enfin, dans de ce travail, nous démontrons l'efficacité de notre approche PMP pour des environnements relativement complexes. Plusieurs expérience ont été mises en oeuvre où PMP a ainsi été intégré sur une plate forme réelle, le robot type voiture Cycab, véhicule conçu par l'INRIA. Transfert des résultats vers l'industrie : Dans un contexte d'automatisation des véhicules à des fins d'assistance à la conduite ou de confort, la technique developpée dans ce travail pourrait tout à fait servir de base à des stratégies d'utomatisation de certaines manoeuvres de véhicules.
Read more
28

Heuristiques et conjectures à propos de la 2-dimension des ordres partiels / Heuristics and conjectures about the 2-dimension of partial orders

Ghazi, Kaoutar 29 September 2017 (has links)
Dès qu’on manipule des ordres partiels (des hiérarchies), il est naturel de se demander comment les représenter dans un système informatique. Parmi les solutions proposées dans la littérature, on retrouve le codage par vecteur de bits. Dans cette thèse, nous nous intéressons au problème de calcul d’un codage des ordres par vecteur de bits de taille minimale, aussi connu par le problème de calcul de la 2-dimension des ordres, qui est NP-complet. Nous proposons des solutions du problème de nature heuristique, pour le cas général et pour des classes d’ordres particulières.Cette thèse présente également des résultats sur des conjectures autour de la 2-dimension des arbres. Notamment celle de Habib et al. à propos de la 2-approximabilité de la 2-dimension des arbres. Nous proposons quelques pistes de preuve de cette conjecture puis une reformulation, permettant d’apporter un nouveau regard sur le problème en question et d’espérer trouver des codages des ordres par vecteur de bits efficaces et de taille inférieure à leur 2-dimension. Nous apportons une réponse négative à deux autres conjectures. / The main question asked when manipulating partial orders (hierarchies), is how to represent them in computer. Among solutions proposed in literature, there is the bit-vector encoding. In this thesis, we consider the problem of computing a bit-vector encoding of orders with minimal size, which is also known as the problem of computing the2-dimension of orders that is NP-complete. We propose heuristics solutions of the problem for the general case and for some particular order classes. In addition, this thesis presents some results about conjectures on the 2-dimension of trees. Especially, the conjecture of Habib et al. about the 2-approximability of the 2-dimension of trees. We propose some ideas of a proof of this conjecture then give a reformulation of it that brings new perspectives on the problem that are finding efficient bits-vector encodings of orders of size less than their 2-dimension. We disprove two other conjectures.
Read more
29

Combinatorics of finite ordered sets: order polytopes and poset entropy

Rexhep, Selim 27 June 2016 (has links)
The thesis focuses on two open problems on finite partially ordered sets: the structure of order polytopes and the approximation of the number of linear extensions of a poset by mean of graph entropy. The polytopes considered here are the linear ordering polytope, the semiorder polytope, the interval order polytope, the partial order polytope and also a generalisation of the linear ordering polytope: the linear extension polytope of a fixed poset P. Various results on the structure of theses polytopes are proved in the first part of the thesis. In the second part of the thesis, we improve the existing bounds linking the entropy of the incomparability graph of the poset P and its number of linear extension. / Le but de la thèse est d'étudier deux problèmes ouverts sur les ensembles ordonnés finis: la structure des polytopes d'ordre et l'approximation du nombre d'extensions linéaires d'un ordre partiel au moyen de la notion d'entropie de graphe. Les polytopes considérés sont le polytope des ordres totaux, le polytope des semiordres, le polytope des ordres d'intervalles, le polytope des ordres partiels, ainsi qu'une généralisation du polytope des ordres totaux: le polytope des extensions linéaires d'un ensemble ordonné fixé P. Des résultats sur la structure de ces polytopes sont présentés dans la première partie de la thèse. Dans la deuxième partie de la thèse, nous améliorons les bornes existantes liant l'entropie du graphe d'incomparabilité d'un ordre partiel et son nombre d'extensions linéaires. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
Read more
30

Dynamique du mouillage pseudo-partiel de la silice par des fondus de polymère. / Dynamics of silica pseudo-partial wetting by polymer melts

Yonger, Marc 12 October 2016 (has links)
La silice de précipitation, poreuse à l'échelle de 10 nm, a de nombreuses applications industrielles dans lesquelles elle est mélangée avec des fondus de polymère, composés de molécules de dimension nanométrique. La surface de la silice est de haute énergie, si bien qu'elle tend à être recouverte par la plupart des liquides. Par conséquent, lorsqu'une goutte de liquide est déposée sur la surface de la silice, un film " précurseur " s'étale au-devant de celle-ci, avec une épaisseur de l'ordre du nm. A l'aide d'observations macroscopiques et par imagerie ellipsométrique, nous avons mis en évidence que le polybutadiène et le polystyrène sont en conditions de mouillage pseudo-partiel avec la silice : une goutte macroscopique coexiste à l'équilibre avec le film précurseur en raison de la présence de forces à longue portée attractive à l'échelle du film. Le film précurseur est en fait formé de molécules quasi-isolées qui diffusent avec un coefficient de diffusion égal au coefficient d'auto diffusion mesuré en volume. Ceci nous donne des indications précieuses sur les interactions polymère/silice. Par ailleurs nous observons dans certains cas la croissance d'une instabilité, prenant la forme d'un film " secondaire " d'épaisseur supérieure à celle du film précurseur. Le polydiméthylsiloxane est quant à lui en conditions de mouillage total sur la silice, et seul un film existe à l'équilibre, les forces à longues portées étant répulsives. L'imbibition de la silice poreuse peut également se relier à ces observations. Finalement, nous déduisons que le film précurseur pour des faibles masses de polymères a peu d'impact sur la dynamique d'imbibition de pastilles de silice poreuse. / Precipitated silica, which is porous at the 10 nm scale, has various industrial uses where it is mixed with polymer melts, with characteristic molecular sizes in the nanometer range. Having a high surface energy, silica tends to be covered by most liquids. As a consequence, when a liquid droplet is deposited on silica surfaces, a thin “precursor” film spreads in front of the droplet, with a thickness of a few nanometers. By combining macroscopic observations and ellipsometry imaging, we found that polybutadiene and polystyrene melts on silica are in pseudo-partial wetting conditions, for which a droplet coexists with a precursor film at equilibrium, due to attractive long range forces at the film length scale. The precursor film is composed of quasi-isolated molecules diffusing in two dimensions with a diffusion coefficient equal to the bulk self-diffusion coefficient. This provides valuable information on the polymer/silica interactions. Furthermore, we occasionally observe the growth of an instability, as a “secondary” film which is thicker than the precursor film. In contrast, polydimethylsiloxane melts are in total wetting conditions on silica: at equilibrium, a polymer film covers the silica surface and no droplets coexist with the film, due to repulsive long range forces. Our observations of the imbibition of porous silica by polymer melts were related to these results. Eventually, for low molar mass polymers, we find that the precursor film has no significant impacts on porous silica pellets imbibition.
Read more

Page generated in 0.0502 seconds