• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5991
  • 1673
  • 709
  • 10
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 8326
  • 2691
  • 2690
  • 1642
  • 1359
  • 1223
  • 866
  • 846
  • 823
  • 646
  • 583
  • 527
  • 514
  • 498
  • 478
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Étude des propriétés de charge et de transport de membranes de nanofiltration / Study of charge and transport properties of nanofiltration membranes

Idil Mouhoumed, Elmi 26 January 2016 (has links)
Aujourd'hui, la nanofiltration (NF) est perçue comme un procédé de séparation efficace et propre permettant d’extraire ou de concentrer des solutés ioniques ou neutres. Son développement à l’échelle industrielle n’est cependant pas encore optimal car les différents mécanismes de séparation sont encore mal compris. Cette thèse a porté d’une part sur l’étude des propriétés charge de surface des membranes de NF/OI et d’autre part sur les mécanismes de transport à travers des membranes de NF. Il a tout d’abord été montré, grâce à des mesures électrocinétiques réalisées sous atmosphère contrôlée, que certaines membranes commerciales subissent un post-traitement afin d’améliorer leurs performances de filtration. La détermination du potentiel zêta, grandeur caractéristique de la charge de surface, s’est révélée être une méthode adaptée pour mettre en évidence la présence d’une couche de post-traitement à la surface d’une membrane. La suite de l’étude a été consacrée à la compréhension des mécanismes de transport lors de la NF de mélanges ternaires contenant deux cations différents (Na+ et Ca2+) et un anion commun (Cl-). L’utilisation du modèle de transport SEDE a permis de montrer que les performances des membranes de NF résultent de la combinaison d’effets stériques, électriques et diélectriques. La dernière partie de ce travail a été consacrée à la NF d’un coproduit de l’industrie agro-alimentaire, le produit fermenté de soja (PFS). Il a été montré que la NF est potentiellement adaptée au dessalement du PFS (réduction de la teneur en cations monovalents) sans perte des sucres d’intérêt. / Today, nanofiltration (NF) is acknowledged as an efficient and environmentally-friendly separation process suited to extract or to concentrate neutral or ionic solutes. However, its development at industrial scale is not yet optimal because separation mechanisms are still poorly understood. This thesis focused on studying surface charge properties of NF/RO membranes and transport mechanisms through NF membranes as well. Firstly it was shown through electrokinetic measurements performed under controlled atmosphere that some commercial membranes undergo a post-treatment to improve their filtration performance. Determining the zeta potential, a physical quantity representative of the membrane surface charge, was shown to be a reliable method to highlight the presence of a post-treatment layer on the membrane surface. The second part of the study dealt with the understanding of transport mechanisms involved in NF of ternary mixtures containing two different cations (Na+ and Ca2+) and a common anion (Cl-). Using the SEDE transport model it was shown that the performance of NF membranes results from the combination of steric, electric and dielectric effects. The last part of this work was concerned with nanofiltration of a food industry co-product, the fermented soy product (PFS). It was shown that NF is potentially suitable for PFS desalination (reduction in the monovalent cation concentration) without loss of the sugars of interest.
142

Modeling reactivity and functionalization of ZrC/ZrO2 surfaces and interfaces en-route to synthesis of ZrC/SiC nanocomposites / Modélisation de réactivité et de fonctionnalisation des surfaces et interfaces ZrC/ZrO2 en route vers la synthèse de nano-composites ZrC/SiC

Osei-Agyemang, Eric 04 October 2016 (has links)
Le carbure de zirconium (ZrC) est une céramique non oxyde utilisée dans l'industrie nucléaire et aéronautique. Cependant, ses excellentes propriétés mécaniques et physiques sont entravées par la formation d'oxydes à des températures de 500 à 600 ° C. Il est ainsi nécessaire de protéger la surface de ZrC avec d'autres matériaux tels que du carbure de silicium (SiC). La théorie de la fonctionnelle de la densité (DFT) combinée à une approche thermodynamique a été utilisée pour étudier la structure, les propriétés et la réactivité des surfaces de ZrC en vue de leurs fonctionnalisation. La stabilité des différentes surfaces à faible indice de ZrC a été étudiée afin de déterminer les surfaces exposées lors de la fonctionnalisation et le revêtement avec le SiC. Une étude préliminaire de la réactivité de petites molécules inorganiques telles que H2O, O2 et H2 a été effectuée. Ensuite, les propriétés des surfaces dans une atmosphère oxydante ont été modélisées pour développer des modèles pour les surfaces oxydées et les différents types de couches d'oxyde exposées. Plusieurs techniques expérimentales ont été combinées avec les études théoriques pour valider ces modèles. La Fonctionnalisation de ZrC a ensuite été étudiée en partant des différents modèles de surfaces oxydées. Les molécules utilisées classiquement pour la fonctionnalisation telles que le 3-bromopropyne et le chloro-allylediméthylsilane interagissant très peu avec la surface, nous avons proposé l’acide 3-buténoïque comme molécule qui se lie très fortement à la surface tout en montrant une très réactivité très intéressante vis à vis du diphénylsilane qui est le précurseur de SiC (après une étape de pyrolyse). / ZrC is a non-oxide ceramic applied in the nuclear and aerospace industries but the excellent mechanical and physical properties are hampered by formation of low refractory oxides at temperatures of 500-600 oC. A need exists for coating the surface with other materials like SiC. Density functional theory (DFT) combined with thermodynamic modelling was used for this study. Stabilities of the various low index surfaces of ZrC are studied to determine the appropriate surfaces for coating with SiC. A preliminary study of reactivity of small inorganic molecules such as H2O, O2, and H2 is carried out. The properties of ZrC surfaces towards oxidation is then studied to develop proper models and understanding of the different types of oxide layers exhibited at real oxidizing conditions. Several experimental techniques were combined with the theoretical studies to analyse the oxide layers formed on ZrC surfaces. Mechanical and thermodynamic models were developed to characterize the interface formed between ZrC surfaces and the oxide layer. Functionalization of ZrC was finally carried out on the exposed facets of the oxidized ZrC. The functionalized surfaces were first grafted with 3-bromo propyne and allyl(chloro)dimethylsilane followed by hydrosilylation from diphenylsilane and 1,4-diethylnylbenzene (these two monomers form a polymer macromolecule). The resulting particles are finally subjected to laser pyrolysis to yield the resulting ZrC/SiC core/shell nanocomposites. The use of H2O as functionalizing group however did not yield grafted polymer units and hence a dual functional group organic molecule (3-butenoic acid) was used to yield the desired ZrC/SiC nanocomposites.
143

Interaction de physisorption d'une molécule de dihydrogène avec une surface métallique / Interaction of physisorption of a hydrogen molecule over a metallic surface

Bernard, Eddy 25 November 2016 (has links)
Cette thèse porte sur l’étude de l’adsorption d’une molécule de dihydrogène sur différentes surfaces métalliques et plus particulièrement de la physisorption du dihydrogène sur des surfaces d’argent et de cuivre. Ce type d’adsorption met en jeu des interactions faibles de type van der Waals et se déroule relativement loin de la surface. A ce jour, la modélisation précise de ces systèmes (molécule physisorbée sur un métal) reste un défi. Deux types d’approches permettent d’obtenir une surface d’énergie potentielle. La première consiste à modéliser la surface métallique par un cluster et à utiliser des méthodes de calcul hautement corrélées et la seconde à considérer la périodicité de la surface et à utiliser la théorie de la fonctionnelle de la densité. Notre objectif était de coupler ces deux approches, qui ont chacune leurs avantages et leurs inconvénients, en utilisant une méthode d’incorporation. Nous avons utilisé le code VASP et la fonctionnelle vdW-DF2 pour obtenir une surface d’énergie potentielle considérant 5 des 6 degrés de liberté de la molécule de dihydrogène au dessus des différentes surfaces. Les caractéristiques de ces potentiels nous ont permis de réduire l’étude à 2 degrés de liberté (l’altitude du dihydrogène et sa rotation dans un plan perpendiculaire à la surface) pour l’approche par les clusters, qui a été réalisée avec le code MOLPRO. Nous avons comparé les données expérimentales et calculées afin de tester l’exactitude de la surface d’énergie potentielle. Pour cela, nous avons calculé les niveaux d’énergie ro-vibrationnelle de la molécule H2 physisorbée sur les différentes surfaces, en utilisant les différents potentiels 2D et nous les avons comparés avec les données des expériences de spectroscopie par perte d’énergie électronique. Pour les systèmes à dimension réduite, les niveaux d’énergie ro-vibrationnelle ont été obtenus en diagonalisant l’Hamiltonien nucléaire et en faisant une dynamique quantique par la méthode de Splitting. Pour simuler le spectre ro-vibrationnel, nous avons calculé la fonction de moment dipolaire du système suivant son orientation, par la méthode des champs finis avec des méthodes de calcul hautement corrélées. Le potentiel d’incorporation donne les résultats les plus proches de l’expérience pour les systèmes Cu(100)/H2 et Ag(100)/H2. En revanche, pour le système Ag(111)/H2 c’est le potentiel obtenu en modélisant la surface par un cluster qui donne les meilleurs résultats / This thesis concerns the study of the adsorption of a hydrogen molecule on various metallic surfaces and more particularly of the physisorption on silver and copper surfaces. This type of adsorption involves weak interactions of van der Waals type and takes place relatively far from the surface. To date, the accurate description of these systems (molecule physisorbed on a metal) is still a challenge. Two approaches allow obtaining a potential energy surface. The first one consists in modelling the metallic surface by a cluster and using highly correlated methods of calculation and the second one is considering the periodicity of the surface and using the density functional theory. Our objective was to couple these two approaches, which have their own advantages and their inconveniences, by using an embedding method. We have used the code VASP and the vdW-DF2 functional to obtain a potential energy surface considering 5 of the 6 degrees of freedom of the hydrogen molecule over the various surfaces. The characteristics of these potentials allowed to limit to 2 degrees of freedom (the height of the hydrogen molecule and its rotation in a perpendicular plan of the surface) for the study on clusters, which was achieved with the MOLPRO code. To check the accuracy of the potential energy surface we have compared the experimental data and the calculated ones. For that purpose, we have calculated ro-vibrational energy levels of the H2 molecule physisorbed on the various surfaces, by using the 2D potential determined with the various approaches and we have compared them with the experimental data obtained with electron energy loss spectroscopy. For the reduced systems, ro-vibrational energy levels were obtained by diagonalisation of nuclear Hamiltonian and with quantum dynamics by the Splitting method. To simulate the ro-vibrational spectrum, we calculated the dipole moment function of the system following its orientation, by the finite fields method with highly correlated methods of calculation. The embedding potential gives the closest results to experiment for the systems Cu(100)/H2 and Ag(100)/H2. On the other hand, for the system Ag(111)/H2, the potential obtained in modelling the surface by a cluster gives better results
144

Analyse et modélisation de la dynamique des chromosomes durant la mitose chez la levure à fission / Chromosome dynamics during mitosis in fission yeast

Mary, Hadrien 16 December 2015 (has links)
La mitose est une étape clé du cycle cellulaire, très préservée chez toutes les cellules eucaryotes, durant laquelle le matériel génétique de la cellule (les chromosomes) réparti de manière égale dans les deux cellules filles. Cette équipartition du matériel génétique est cruciale pour le maintien de la stabilité génétique. Durant ce processus, les chromosomes, composés des chromatides soeurs, établissent une plaque métaphasique au centre du fuseau mitotique. Chaque chromatide est attachée à un pôle du fuseau mitotique respectif (on parle d'attachement bipolaire) vers lequel elle se dirigera durant l'anaphase. Les chromatides sont l'unité indivisible du matériel génétique durant la mitose, à l'image des atomes dans une molécule. Initialement, une fois la chromatine condensée en chromosomes, chacun de ces " objets " est détaché et réparti suivant une position précise appellée territoires chromosomiques. Toute la complexité de la mitose est de capturer chacune des chromatides et de les positionner sur la plaque métaphasique avant leur séparation et migration vers leur pôle respectif durant l'anaphase. Cette étape de la division cellulaire requiert donc non seulement un réseau complexe d'interaction et de signalisation biochimique comme dans beaucoup d'autres processus biologiques mais aussi un fin contrôle spatio-temporel du mouvement et du positionnement de ces objets de grande taille à l'échelle de la cellule. Il semblerait que l'origine du mouvement des chromosomes provienne pour une grande part de la dynamique des microtubules. Ce qui est moins certain est la part relative accordée aux différents processus régulant cette dynamique; que ce soit la dynamique intrinsèque (appelée instabilité dynamique des microtubules) ou l'effet de différentes protéines sur les microtubules comme les MAPs (Microtubule Associated Proteins) et les kinésines (protéines motrices). On notera par ailleurs que le mécanisme de transfert d'énergie entre la dynamique des microtubules et le mouvement des chromosomes est encore très largement hypothétique. La dynamique des chromosomes durant la mitose est aussi largement contrôlée par un grand nombre d'acteurs autres que les microtubules. Certains d'entre eux étant responsables de l'attachement MTs-kinétochore comme les complexes NDC80 et DAM1, tandis que d'autres sont impliqués dans la régulation de la dynamique des microtubules comme la kinésine-8 et la kinésine-13. Durant mon travail de thèse, j'ai étudié la dynamique des chromosomes en mitose chez la levure à fission, modèle celulaire dont les mécanismes primordiaux qui contrôlent la mitose sont conservés avec les eucaryotes supérieurs. En effet, j'ai caractérisé deux de ces mécanismes conservés au cours de l'évolution: l'alignement des chromosomes durant la métaphase ainsi qu'un mouvement de va et vient plus ou moins régulier le long du fuseau aussi appelé oscillation des chromosomes. J'ai montré, en analysant les trajectoires des chromosomes que ces deux processus sont pour une large part indépendants [@Mary2015]. De plus, le processus d'alignement des chromosomes, encore mal compris, est en partie contrôlé par la kinésine-8 via une activité dépendante de la longueur des microtubules. Il semblerait donc que cette kinésine soit capable de fournir une information spatiale le long du fuseau mitotique afin de positionner correctement les chromosomes. Enfin, j'ai utilisé un modèle mathématique de la ségrégation des chromosomes précédemment développé dans l'équipe afin de tester de manière quantitative les hypothèses de mécanisme du centrage des chromosomes par la kinésine-8. L'ensemble de mon travail porte donc sur le contrôle du mouvement, de l'attachement et du positionnement des chromosomes durant la mitose afin de mieux comprendre les processus biophysiques associés à la mitose. / Mitosis is a highly preserved process in all eukaryotic cells during which the genetic material (chromosomes) is divided in two parts which spread in both daughter cells. This equipartition is crucial for maintaining genetic stability. During this process, chromosomes form a metaphasic plate at the center of the mitotic spindle. Each chromatid is attached to its respective spindle pole (called bipolar attachment) toward which it will move during anaphase. Chromatids are the indivisible units of genetic material during mitosis just like atoms in a molecule. Originally each of these "\ objects\ " are detached and organized in chromosomes territories. All the complexity of mitosis resides in the capture of each chromatid by the spindle pole to exert forces to position them on the metaphase plate before their separation and migration towards their respective poles in anaphase. This step of cell division not only requires complex interaction networks and metabolic signaling pathways just like many other biological processes but also a fine spatio-temporal control of movement and positioning of these big objects relative to cell size. It is usually accepted that the origin of chromosome movement arises from microtubule dynamics. However, what is less clear is the relative importance of each of these processes regulating chromosome movement: the intrinsic dynamic instability of microtubules or the effect of their associated proteins such as MAPs and kinesins. It is also important to note that the mechanism controlling the transfer of energy between microtubule dynamics and chromosome movement is still largely hypothetical. Moreover, chromosome dynamics during mitosis is regulated by a large number of actors apart from microtubules. Some of them being responsible for MT-kinetochore attachment such as NDC80 and DAM1 complex. While others are involved in the regulation of MT dynamics such as Kinesin-8 and Kinesin-13. During my PhD, I studied fission yest chromosome dynamic during mitosis. This cellular model has the advantage of sharing many fundamental mechanisms of symmetrically dividing higher eukaryotic cells. I characterized two of these conserved mechanisms: chromosome alignment during metaphase and back and forth movement along the spindle, called chromosome oscillation. By analyzing chromosome trajectories, I showed that both processes are performed through independent mechanisms [@Mary2015]. Moreover, chromosome alignment process, which is still poorly understood, is regulated by Kinesin-8 via a length dependent activity on microtubules. This suggests that Kinesin-8 is able to provide spatial information along the mitotic spindle to properly position chromosomes. Finally, I used a mathematical model of chromosome segregation in order to test quantitatively different hypotheses of chromosome centering process. This work is thus deciphering the control of movement, attachment and positioning of chromosomes during mitosis and seeks to better understand the biophysical processes controlling mitosis.
145

Benchmark-driven approaches to performance modeling of multi-core architectures / Modélisation des architecture multi-cœur par des mesures de performance

Putigny, Bertrand 27 March 2014 (has links)
Ce manuscrit s'inscrit dans le domaine du calcul intensif (HPC) où le besoin croissant de performance pousse les fabricants de processeurs à y intégrer des mécanismes de plus en plus sophistiqués. Cette complexité grandissante rend l'utilisation des architectures compliquée. La modélisation des performances des architectures multi-cœurs permet de remonter des informations aux utilisateurs, c'est à dire les programmeurs, afin de mieux exploiter le matériel. Cependant, du fait du manque de documentation et de la complexité des processeurs modernes, cette modélisation est souvent difficile. L'objectif de ce manuscrit est d'utiliser des mesures de performances de petits fragments de codes afin de palier le manque d'information sur le matériel. Ces expériences, appelées micro-benchmarks, permettent de comprendre les performances des architectures modernes sans dépendre de la disponibilité des documentations techniques. Le premier chapitre présente l'architecture matérielle des processeurs modernes et, en particulier, les caractéristiques rendant la modélisation des performances complexe. Le deuxième chapitre présente une méthodologie automatique pour mesurer les performances des instructions arithmétiques. Les informations trouvées par cette méthode sont la base pour des modèles de calculs permettant de prédire le temps de calcul de fragments de codes arithmétique. Ce chapitre présent également comment de tels modèles peuvent être utilisés pour optimiser l'efficacité énergétique, en prenant pour exemple le processeur SCC. La dernière partie de ce chapitre motive le fait de réaliser un modèle mémoire prenant en compte la cohérence de cache pour prédire le temps d'accès au données. Le troisième chapitre présente l'environnement de développement de micro-benchmark utilisé pour caractériser les hiérarchies mémoires dotées de cohérence de cache. Ce chapitre fait également une étude comparative des performances mémoire de différentes architectures et l'impact sur les performances du choix du protocole de cohérence. Enfin, le quatrième chapitre présente un modèle mémoire permettant la prédiction du temps d'accès aux données pour des applications régulières de type \openmp. Le modèle s'appuie sur l'état des données dans le protocole de cohérence. Cet état évolue au fil de l'exécution du programme en fonction des accès à la mémoire. Pour chaque transition, une fonction de coût est associée. Cette fonction est directement dérivée des résultats des expériences faites dans le troisième chapitre, et permet de prédire le temps d'accès à la mémoire. Une preuve de concept de la fiabilité de ce modèle est faite, d'une part sur les applications d'algèbre et d'analyse numérique, d'autre part en utilisant ce modèle pour modéliser les performance des communications \mpi en mémoire partagée. / In the race for better performance, computer architectures are becoming more and more complex. Therefore the need for hardware models is crucial to i) tune software to the underling architecture, ii) build tools to better exploit hardware or iii) choose an architecture according to the needs of a given application. In this dissertation, we aim at describing how to build a hardware model that targets all critical parts of modern computer architecture. That is the processing unit itself, memory and even power consumption. We believe that a large part of hardware modeling can be done automatically. This would relieve people from the tiresome task of doing it by hand. Our first contribution is a set of performance models for the on-core part of several different CPUs. This part of an architecture model is called the computational model. The computational model targeting the Intel SCC chip also includes a power model allowing for power aware performance optimization. Our other main contribution is an auto-tuned memory hierarchy model for general purpose CPUs able to i) predict performance of memory bound computations, ii) provide programmer with programming guidelines to improve software memory behavior.
146

Inverse modelling and optimisation in numerical groundwater flow models using proper orthogonal decomposition / Modélisation inverse et optimisation pour les écoulements souterrains par décomposition orthogonale aux valeurs propres.

Wise, John Nathaniel 12 January 2015 (has links)
Des simulateurs numériques sont couramment utilisés pour la prédiction et l'optimisation de l'exploitation d'aquifères et pour la détermination de paramètres physiques (e.g perméabilité) par calcul inverse. L'équation de Richards, décrit l'écoulement d'un fluide dans un milieu poreux non saturé. C'est une équation aux dérivées partielles non linéaires, dont la résolution numérique en grande dimension 3D est très coûteuse et en particulier pour du calcul inverse.Dans ce travail, une méthode de réduction de modèle (ROM) est proposée par une décomposition orthogonale propre (POD) afin de réduire significativement le temps de calcul, tout maîtrisant la précision. Une stratégie de cette méthode est de remplacer localement dans l'algorithme d'optimisation, le modèle fin par un modèle réduit type POD. La méthode de Petroc-Galerkin POD est d'abord appliquée à l'équation de Richards et testée sur différents cas, puis adaptée en linéarisant les termes non linéaires. Cette adaptation ne fait pas appel à une technique d'interpolation et réduit le temps de calcul d'un facteur [10;100]. Bien qu'elle ajoute de la complexité du ROM, cette méthode évite d'avoir à ajuster les paramètres du noyau, comme c'est le cas dans les méthodes du POD par interpolation. Une exploration des propriétés d'interpolation et d'extrapolation inhérentes aux méthodes intrusives est ensuite faite. Des qualités d'extrapolation intéressantes permettent de développer une méthode d'optimisation nécessitant de petits plans d'expériences (DOE). La méthode d'optimisation recrée localement des modèles précis sur l'espace des paramètres, en utilisant une classification à vecteurs de support non linéaire pour délimiter la zone où le modèle est suffisamment précis, la région de confiance. Les méthodes sont appliquées sur un cas d'école en milieu non saturé régit par l'équation de Richards, ainsi que sur un aquifère situé dans le "Table Mountain Group" près de la ville du Cap en Afrique du Sud. / The Richards equation describes the movement of an unsaturated fluid through a porous media, and is characterised as a non-linear partial differential equation. The equation is subject to a number of parameters and is typically computationnaly expensive to solve. To determine the parameters in the Richards equation, inverse modelling studies often need to be undertaken. As a solution to overcome the computational expense incurred in inverse modelling, the use of Proper Orthogonal Decomposition (POD) as a Reduced Order Modelling (ROM) method is proposed in this thesis to speed-up individual simulations. The Petrov-Galerkin POD approach is initially applied to the Richards equation and tested on different case studies. However, due to the non-linear nature of the Richards equation the method does not result in significant speed up times. Subsquently, the Petrov-Galerkin method is adapted by linearising the nonlinear terms in the equation, resulting in speed-up times in the range of [10,100]., The adaptation, notably, does not use any interpolation techniques, favouring an intrusive, but physics-based, approach. While the use of intrusive POD approaches add to the complexity of the ROM, it avoids the problem of finding kernel parameters typically present in interpolative POD approaches. Furthermore, the interpolative and possible extrapolation properties inherent to intrusive PODROM's are explored. The good extrapolation propertie, within predetermined bounds, of intrusive POD's allows for the development of an optimisation approach requiring a very small Design of Experiments (DOE). The optimisation method creates locally accurate models within the parameters space usign Support Vector Classification. The limits of the locally accurate model are called the confidence region. The methods are demonstrated on a hypothetical unsaturated case study requiring the Richards equation, and on true case study in the Table Mountain Group near Cape Town, South Africa.
147

Modélisation de réacteurs et procédés de polymérisation de propylène industriels / Modeling of industrial reactors and processes for the polymeriszation of propylene

Feng, Lian-Fang 25 October 2006 (has links)
Ces travaux de recherche ont pour objet de développer des modèles statiques et dynamiques pour un procédé de polymérisation de propylène industriel. Ces modèles ont ensuite été employés pour proposer de nouveaux procédés sur base du procédé existant. A cette fin, cette étude a réalisé les aspects suivants : ? Etude de l'état de l'art de la catalyse Ziegler-Natta pour la polymérisation d'oléfines ; ? Etude des caractéristiques des procédés de polymérisation de propylène classiques ; ? Etude des caracteristiques des réacteurs de polymérisation de propylène en suspension et en phase gazeuse en prennant comme exemple des réacteurs en série, d'une part ; et des modèles et méthodes de calcul des paramètres thermodynamiques de systèmes de polymérisation de propylène complexes, d'autre part ; ? Développement d'un modèle dynamique pour un procédé de polymérisation de propylène industriel composé d'un réacteur en suspension et plusieurs réacteurs en phase gazeuse en série. Ce modèle a été basé sur des cinétiques de polymérisation faisant appel à plusieurs sites catalytiques ; ? Etude des conditions opératories et des caractéristiques dynamiques des réacteurs ; ? Simulation des procédés de changement de grade et optimisation de ces procédés. Certains résultats de ces travaux sont originaux et significantifs sur le plan scientifique et sur le plan technologique. / In this thesis, rigorous steady and dynamic models have been developed for an industrial propylene polymerization process. They have then been used to develop new processes based on the existing one. For that purpose, this thesis has: ? reviewed the state of the art of the olefin Ziegler-Natta catalysts; ? analyzed classical propylene polymerization processes and their characteristics; ? analyzed the characteristics of industrial slurry and gas phase propylene polymerization reactors using representative slurry propylene polymerization and gas phase polymerization reactors in series; studied the models for calculating the thermodynamic properties of complex propylene polymerization systems and methods for determining their parameters; ? developed a dynamic model for an entire industrial propylene polymerization process composed of a slurry reactor and several gas phase reactors in series. This model is based on rigorous polymerization kinetics involving several Ziegler-Natta active sites ? investigated the operating conditions and dynamic characteristics of the reactors ? simulated grade transition processes and optimum polymerization processes. Some of the results are original, and scientifically and technologically relevant.
148

Modelling and placement optimization of compound services in a converged infrastructure of cloud computing and internet of things / Modélisation et optimisation du placement de services composés dans une infrastructure convergente de l’informatique en nuage et de l’internet des objets

El Rachkidi, Elie 24 October 2017 (has links)
La convergence de l’Internet des Objets IdO (Internet of Things) et de l’Informatique en Nuage (Cloud Computing) est une approche prometteuse. D’une part, l’Informatique en Nuage fournit des ressources de calcul, de réseau, et de stockage théoriquement illimitées, et d’autre part, l’IdO permet l’interaction des services en nuage avec des objets du monde réel. Une convergence efficace de ces deux technologies aura un impact certainement important sur les innovations dans les domaines des services IT par l’introduction de nouveaux modèles de services d’IdO à la demande. Dans un tel contexte, les objets connectés sont virtualisés et offerts comme étant des services en nuage accessibles sur Internet depuis n’importe où et à n’importe quel moment. Ces services sont connus sous le nom d’Objets Virtuels (OVs). Ils cachent l’hétérogénéité de l’IdO et lient les objets connectés aux services en nuage traditionnels (i.e. services de stockage) pour fournir des applications IdO. Dans cette thèse, nous considérons d’abord une intégration partielle de l’IdO et de l’Informatique en Nuage. Cette intégration fournit l’IdO au sein d’un seul niveau de service de l’Informatique en Nuage. Dans ce cas, les ressources de l’IdO et de l’Informatique en Nuage sont approvisionnées séparément. Nous nous concentrons dans ce travail sur l’orchestration des OVs dans une infrastructure en Nuage. Nous définissons un algorithme d’approvisionnement basé sur une stratégie de partage où chaque objet connecté est associé à un seul OV et peut être consommé par plusieurs applications. Nous proposons deux programmes linéaires pour effectuer l’approvisionnement des OVs. Le premier en cas où il n’y a pas des OVs précédemment déployés dans l’infrastructure, tandis que l’autre prend en compte le cas où il y a des OVs déjà déployés. Notre approche minimise les coûts opérationnels des OVs et la latence de communication par rapport aux approches qui considèrent une stratégie de non-partage. La deuxième partie de cette thèse considère une intégration complète de l’IdO et de l’Informatique en Nuage. Nous appelons cette intégration le Nuage des Objects (NdO). Dans ce contexte, un client sera capable de demander un approvisionnement, un déploiement, et une mise à l’échelle automatique d’une application IdO de bout en bout à la volée avec un minimum d’efforts de gestion. En particulier, nous abordons l’aspect de l’approvisionnement. Nous définissons un modèle orienté ressources capable de décrire une demande d’une application IdO et une infrastructure NdO sur différents niveaux de service. Nous basons notre modèle sur les spécifications OCCI définies par l’OGF. En outre, nous définissons un algorithme d’approvisionnement en une étape coordonnée pour orchestrer une application IdO dans une infrastructure NdO. L’algorithme considère les ressources de l’IdO et de l’Informatique en Nuage simultanément. Les simulations montrent qu’un processus d’approvisionnement en une étape coordonnée est 10%−20% plus efficace que deux processus d’orchestration des ressources de l’IdO et de l’Informatique en Nuage séparés. / The convergence of the Internet of Things (IoT) and Cloud Computing technologies is a promising approach. On the one hand, Cloud Computing provides virtually unlimited computing, networking, and storage resources for constrained IoT devices. On the other hand, the IoT enables the interaction of cloud services with real world things. Such integration stimulates innovation in both areas and provides novel service delivery models such as the Sensingas a Service in different application domains (i.e. healthcare, transportation, smart-city, smartbuilding).In such convergence, things are abstracted and offered as cloud services accessible over the Internet from any place and at any time. Such abstractions are known as Virtual Objects (VOs) and connect things to traditional cloud services (e.g. data analytics, storageservices) to deliver IoT applications. In this thesis, we consider first a partial integration of the IoT and Cloud Computing. Such integration focuses on delivering the IoT within a single service level of Cloud Computing,namely: the application, the platform, or the infrastructure level. In this context, IoT and CloudComputing resources are provisioned separately. We focus in this work on the orchestration of VOs in a cloud infrastructure. For this purpose, we define a provisioning algorithm based on a sharing strategy where each connected object is associated with a single VO and can be consumed by multiple applications. We propose two linear programs to perform the provisioning of VOs. The first considers no previously deployed VOs in the infrastructure, while the other takes into consideration pre-deployed VOs. Our approach minimizes VOs operational cost and communication latency in both cases compared to those with a non-sharing strategy. The second part of this thesis considers a full integration of the IoT and Cloud Computing. We refer to such integration as the Cloud of Things (CoT). In this context, a customer should be able to request end-to-end IoT application provisioning, deployment, auto-scaling, and release on the fly with minimal management efforts. In this thesis, we address the provisioning aspect. We define a resource-oriented model able to describe an IoT application request and a CoT infrastructure on different service levels. We base our model on the OCCI specifications defined by the OGF. Furthermore, we define a single stage provisioning algorithm to orchestrate a described IoT application into a CoT infrastructure. The algorithm considers cloud and IoT resources simultaneously. Simulations show that a one-stage provisioning process is 10%−20%more efficient than two separate orchestration processes for cloud and IoT resources.
149

Leucémie myéloïde chronique : modélisation de l'hématopoïèse leucémique par les cellules souches pluripotentes induites / CML modelisation from induced pluripotent stem cell derived from CML patient.

Telliam, Gladys 14 December 2016 (has links)
La leucémie myéloïde chronique (LMC) est un syndrome myéloprolifératif clonal initié par l’activité tyrosine kinase de l’oncoprotéine de fusion BCR-ABL dans une cellule souche hématopoïétique (CSH) très primitive et caractérisée par une instabilité génétique responsable de l’évolution clonale de la maladie. Les mécanismes de survie, d’autorenouvellement et ceux de la progression vers une phase de leucémie aigüe sont difficilement modélisables dans les CSH primaires de patients. La technologie des IPSC ; permettant de reprogrammer les cellules leucémiques à un état pluripotent ; pourrait permettre de générer in vitro des progéniteurs et des cellules leucémiques très primitives, dont l’évolution biologique pourrait être séquentiellement analysée. Dans ce but, nous avons généré une lignée IPSC à partir des cellules leucémiques d’un patient atteint de LMC. Nous avons montré que la lignée IPSC différenciée en hémangioblastes ou en progéniteurs hématopoïétiques présente un potentiel clonogénique accru. Ce potentiel est modulable sous l’action de l’imatinib mesylate ; qui inhibe l’autophosphorylation de BCR-ABL et celle de la protéine CRK-L ; mais également par la manipulation pharmacologique de la voie AHR impliquée dans la quiescence des CSH. En utilisant une stratégie de mutagénèse in vitro, nous avons montré la possibilté d’exacerber le potentiel hématopoietique des cellules hématopoïétiques dérivées des iPSC leucémiques. Les iPSC analysées après traitement par l’agent mutagène ENU présentent des anomalies cytologiques et cytogénétiques additionnelles reminiscentes de la phase blastiques de la maladie. Les analyses moléculaires par aCGH ont permis d’identifier dans les cellules hématopoïétiques dérivées d’IPSC traités par ENU, une signature moléculaire compatible avec celle décrite dans les cellules blastiques de patients. L’ensemble de nos résultats suggèrent qu’il est possible de modéliser certains aspects de la LMC ; notamment un phénotype myéloprolifératif ; et de génerer un modèle de progression blastique in vitro à partir des iPSC leucémiques, permettant ainsi d’identifier de nouveaux biomarquers prédictifs de progression tumorale ou le criblage de médicaments. / Chronic myeloid leukemia (CML) is a clonal myeloproliferative malignancy initiated by tyrosine kinase activity of the fusion oncoprotein BCR-ABL in very primitive hematopoietic stem cell and characterized by a genetic instability leading to clonal progression. Mechanisms of survival, self-renewal and progression of the disease are difficult to model using primary leukemic cells. The use of iPSC technology could allow reprogramming of leukemic cells to pluripotency with generation of primitive leukemic cells whose evolution can be sequentially analyzed. For this purpose, we generated an IPSC cell line from the leukemic cells of a CML patient and analyzed the possibility to generate a myeloproliferative phenotype. We have shown that this iPSC exhibits an increased hematopoietic potential either via EB or Blast-CFC generation. This potential can be modulated by the action of imatinib, inhibiting autophosphorylation of BCR-ABL and that of CRKL. We show that hematopoietic potential of CML iPSC can also be modulated by using AHR antagonists, which allow further amplification of hematopoietic cells. To evaluate the possibility of generating a clonal progression model in vitro, we have used a mutagenesis strategy. CML iPSC treated by ENU for several weeks generated hematopoietic cells with increased efficiency. These cells showed evidence of cytological and cytogenetic abnormalities reminiscent of a blast crisis. aCGH analyses of hematopoietic cells generated revealed genomic abnormalities described in CML blast crisis and a molecular signature compatible with blast crisis described in CML patients. These results suggest the feasibility of using patient specific iPSC for modeling CML blast crisis, which could be used for discovery of novel biomarkers and drug screening.
150

Tests automatisés dirigés par les exigences pour systèmes cyber-physiques / Requirement driven automated tests for cyber-physical systems

Chabot, Martial 30 October 2018 (has links)
Aujourd’hui, de nombreux grands industriels de différents domaines se sont lancés dans la conception de produits intelligents pour répondre aux nouveaux besoins du marché. La conception de ces systèmes est de plus en plus complexe, puisqu’ils sont composés de nombreux composants physiques pouvant être contrôlés par des applications s'exécutant sur des processeurs. Afin d'assister cette conception multi-disciplines, la solution que nous proposons dans cette thèse est de diriger la modélisation et la conception du système par la prise en compte des scénarios de test qui devront être utilisés pour valider ses exigences. La méthode préconisée suggère de raisonner au niveau système et de commencer le processus de conception par la formalisation des tests de validation. En d'autres termes, il s'agit en particulier de préciser le(s) critère(s) d’acceptation de l’exigence ainsi que le scénario de test nécessaire pour le(s) vérifier. Formaliser ainsi les tests permet notamment d'analyser la formulation des exigences elles-mêmes et d'y lever toute ambiguïté. Nous proposons un modèle générique de la vue structurelle de l'infrastructure de test, et un profil UML associé. La vue comportementale est modélisée sous forme de diagrammes de séquences SysML. Les interfaces de l'infrastructure de test fournissent des contraintes de testabilité pour le système à concevoir. Nous avons développé un outil, ARES (Automatic geneRation of Executable tests from SysML), qui transforme automatiquement cette spécification structurelle/comportementale des tests en scénarios simulables ou exécutables. Ceux-ci, analogues par construction, seront utilisés pour valider des modèles simulables du système (Matlab/Simulink) puis lors du processus de vérification finale du produit (avec un environnement TestStand). Nous présentons l'application de cet outil sur diverses études de cas associées à des produits Schneider Electric. / Nowadays, many major manufacturers in different fields are working towards the design of smart products to meet new market needs. The design of these systems is increasingly complex, as they are composed of many physical components controlled by applications running on processors. In order to support this multi-disciplinary design, the solution we propose in this thesis is to guide the system modeling and design by taking into account the test scenarios that will be used to validate its requirements. The method that we propose suggests reasoning at the system level and starting the design process by formalizing validation tests. In other words, it amounts to specifying the acceptance criterion(s) for the requirement as well as the test scenario necessary to verify it. Formalizing the tests in this way makes it possible to analyze the formulation of the requirements themselves and to remove any ambiguity. We propose a generic model of the structural view of the test infrastructure, and an associated UML profile. The behavioral view is modeled as SysML sequence diagrams. The test infrastructure interfaces provide testability constraints for the system to be designed. We have developed a tool, ARES (Automatic GeneRation of Executable Tests from SysML), which automatically transforms this structural/behavioral specification of the tests into simulatable or executable scenarios. These scenarios, analogous by construction, will be used to validate simulatable models of the system (Matlab/Simulink), then during the process of final verification of the product (with a TestStand environment). We present the application of this tool on various case studies associated with Schneider Electric products.

Page generated in 0.1184 seconds