• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 1
  • 1
  • Tagged with
  • 9
  • 9
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Using mortars to upscale permeability in heterogeneous porous media from the pore to continuum scale

Bhagmane, Jaideep Shivaprasad 20 September 2010 (has links)
Pore-scale network modeling has become an effective method for accurate prediction and upscaling of macroscopic properties, such as permeability. Networks are either mapped directly from real media or stochastic methods are used that simulate their heterogeneous pore structure. Flow is then modeled by enforcing conservation of mass in each pore and approximations to the momentum equations are solved in the connecting throats. In many cases network modeling compares favorably to experimental measurements of permeability. However, computational and imaging restrictions generally limit the network size to the order of 1 mm3 (few thousand pores). For extremely heterogeneous media these models are not large enough in capturing the petrophysical properties of the entire heterogeneous media and inaccurate results can be obtained when upscaling to the continuum scale. Moreover, the boundary conditions imposed are artificial; a pressure gradient is imposed in one dimension so the influence of flow behavior in the surrounding media is not included. In this work we upscale permeability in large, heterogeneous media using physically-representative pore-scale network models (domain ~106 pores). High-performance computing is used to obtain accurate results in these models, but a more efficient, novel domain decomposition method is introduced for upscaling the permeability of pore-scale models. The medium is decomposed into hundreds of smaller networks (sub-domains) and then coupled with the surrounding models to determine accurate boundary conditions. Finite element mortars are used as a mathematical tool to ensure interfacial pressures and fluxes are matched at the interfaces of the networks boundaries. The results compare favorably to the more computationally intensive (and impractical) approach of upscaling the media as a single model. Moreover, the results are much more accurate than traditional hierarchal upscaling methods. This upscaling technique has important implications for using pore-scale models directly in reservoir simulators in a multiscale setting. The upscaling techniques introduced here on single phase flow can also be easily extended to other flow phenomena, such as multiphase and non-Newtonian behavior. / text
2

Role of social network properties on the impact of direct contact epidemics

Badham, Jennifer Marette, Information Technology & Electrical Engineering, Australian Defence Force Academy, UNSW January 2008 (has links)
Epidemiological models are used to inform health policy on issues such as target vaccination levels, comparing quarantine options and estimating the eventual size of an epidemic. Models that incorporate some elements of the social network structure are used for diseases where close contact is required for transmission. The motivation of this research is to extend epidemic models to include the relationship with a broader set of relevant real world network properties. The impact of degree distribution by itself is reasonably well understood, but studies with assortativity or clustering are limited and none examine their interaction. To evaluate the impact of these properties, I simulate epidemics on networks with a range of property values. However, a suitable algorithm to generate the networks is not available in the literature. There are thus two research aspects: generating networks with relevant properties, and estimating the impact of social network structure on epidemic behaviour. Firstly, I introduce a flexible network generation algorithm that can independently control degree distribution, clustering coefficient and degree assortativity. Results show that the algorithm is able to generate networks with properties that are close to those targeted. Secondly, I fit models that account for the relationship between network properties and epidemic behaviour. Using results from a large number of epidemic simulations over networks with a range of properties, regression models are fitted to estimate the separate and joint effect of the identified social network properties on the probability of an epidemic occurring and the basic reproduction ratio. The latter is a key epidemic parameter that represents the number of people infected by a typical initial infected person in a population. Results show that social network properties have a significant influence on epidemic behaviour within the property space investigated. Ignoring the differences between social networks can lead to substantial errors when estimating the basic reproduction ratio from an epidemic and then applying the estimate to a different social network. In turn, these errors could lead to failure in public health programs that rely on such estimates.
3

Where Social Networks, Graph Rewriting and Visualisation Meet : Application to Network Generation and Information Diffusion / Quand les réseaux sociaux, la réécriture de graphes et la visualisation se rencontrent : application à la génération de réseaux et à la diffusion d'information.

Vallet, Jason 07 December 2017 (has links)
Dans cette thèse, nous présentons à la fois une collection de modèles de générations de réseaux et de diffusion d'information exprimés à l'aide d'un formalisme particulier appelé la réécriture de graphes, ainsi qu'une nouvelle méthode de représentation permettant la visualisation de la diffusion d'information dans des grands réseaux sociaux. Les graphes sont des objets mathématiques particulièrement versatiles qui peuvent être utilisés pour représenter une large variété de systèmes abstraits. Ces derniers peuvent être transformés de multiples façons (création, fusion ou altération de leur éléments), mais de telles modifications doivent être contrôlées afin d'éviter toute opération non souhaitée. Pour cela, nous faisons appel au formalisme particulier de la réécriture de graphes afin d'encadrer et de contrôler toutes les transformations. Dans notre travail, un système de réécriture de graphes opère sur un graphe, qui peut être transformé suivant un ensemble de règles, le tout piloté par une stratégie. Nous commençons tout d'abord par utiliser la réécriture en adaptant deux algorithmes de génération de réseaux, ces derniers permettant la création de réseaux aux caractéristiques petit monde. Nous traduisons ensuite vers le formalisme de réécriture différents modèles de diffusion d'information dans les réseaux sociaux. En énonçant à l'aide d'un formalisme commun différents algorithmes, nous pouvons plus facilement les comparer, ou ajuster leurs paramètres. Finalement, nous concluons par la présentation d'un nouvel algorithme de dessin compact de grands réseaux sociaux pour illustrer nos méthodes de propagation d'information. / In this thesis, we present a collection of network generation and information diffusion models expressed using a specific formalism called strategic located graph rewriting, as well as a novel network layout algorithm to show the result of information diffusion in large social networks. Graphs are extremely versatile mathematical objects which can be used to represent a wide variety of high-level systems. They can be transformed in multiple ways (e.g., creating new elements, merging or altering existing ones), but such modifications must be controlled to avoid unwanted operations. To ensure this point, we use a specific formalism called strategic graph rewriting. In this work, a graph rewriting system operates on a single graph, which can then be transformed according to some transformation rules and a strategy to steer the transformation process. First, we adapt two social network generation algorithms in order to create new networks presenting small-world characteristics. Then, we translate different diffusion models to simulate information diffusion phenomena. By adapting the different models into a common formalism, we make their comparison much easier along with the adjustment of their parameters. Finally, we finish by presenting a novel compact layout method to display overviews of the results of our information diffusion method.
4

Evaluating network generation algorithms for decentralized social media platforms

Obreykov, Nicky January 2021 (has links)
With the large amount of personal data being shared on social media platforms, there is an increased security risk involved. Individuals are reliant on companies keeping their promises of securely handling personal data. Despite this, previous incidents such as the Cambridge Analytica incident have unveiled issues with the model of trusting a single entity to handle personal data safely. Instead of relying on a single entity keeping their promise, a different type of social media platform has started to emerge that decentralizes control over data. This type of social media platform that removes trust in a central entity, is called a decentralized social media platform. There are a plethora of decentralized social media platforms each relying on different heuristics for creating the network. Depending on the network structure which is the backbone of the platform, each network can have a different degree of centrality. If a decentralized social media platform’s network becomes too centralized, some entities in the network can gain larger control of the network, defeating its intended purpose. To prevent this, studying the network that comprises the platform can be fruitful. The science of network analysis can aid in finding the optimal network structure that best fits a decentralized social media platform. This study has examined five different network generation algorithms with a number of permutations in search of the network generation algorithm that best fits a decentralized social media platform. Each algorithm has generated 1,000 networks which were then used in one-way ANOVA tests to observe differences between the measurements. Four network centralization measures and a network efficiency measure have been used to determine the algorithm that minimizes centralization, while still being functional. The results indicate that, out of the five algorithms, the k-degree algorithm best fits a decentralized social media platform. / Med den stora andelen personlig data som delas på sociala medieplattformar, medför det en ökad säkerhetsrisk. Individer är beroende av att företag håller sina löften kring säkerhetshantering av personlig data. Trots detta har tidigare incidenter som Cambridge Analytica-incidenten avslöjat problem med modellen där individer behöver ha fullt förtroende att en enskild aktör ska hantera personlig data på ett säkert sätt. Istället för att ha förtroende att en enskild aktör ska hålla sitt löfte, har en ny typ av social medieplattform dykt upp som decentraliserar kontrollen över data. Denna typ av social medieplattform som avlägsnar förtroendet i centrala aktörer kallas för en decentraliserad social medieplattform. Det finns en stor andel decentraliserade sociala medieplattformar som beror av olika heuristiker för att bygga nätverket. Baserat på nätverksstrukturen, som är grunden till plattformen, så kan varje nätverk ha olika grad av centralisering. Omen decentraliserad social medieplattforms nätverk blir för centraliserad, kan ett par aktörer i nätverket få större kontroll över nätverket, vilket motverkar dess avsedda syfte. För att förhindra detta kan det vara givande att studera nätverket som är underlag för plattformen. Vetenskapen om nätverksanalys kan bidra att hitta den optimala nätverksstrukturen som på bästa sätt passar en decentraliserad social medieplattform. Denna forskning har undersökt fem olika nätverksgenerande algoritmer med ett antal permutationer för att söka den nätverksgenerande algoritm som bäst passar en decentraliserad social medieplattform. Varje algoritm har generat 1,000 nätverk som sedan använts i ett antal one-way ANOVA test för att observera skillnader mellan mätningarna. Fyra centraliseringmått och ett effektivitetmått har använts för att bestämma den algoritm som minimerar centraliseringen men som fortfarande är funktionell. Resultaten indikerar att, av de fem algoritmerna, passar k-gradsalgoritmen en decentraliserad social medieplattform bäst.
5

Vers la simulation de perfusion du myocarde à partir d'image tomographique scanner / Toward simulation of myocardial perfusion based on a single CTA scan.

Jaquet, Clara 18 December 2018 (has links)
De nos jours, les progrès de l’informatisation de l’imagerie médicale assistent au plus près les médecins dans leur soin au patient. Des modèles personnalisés computationnels sont utilisés pour le diagnostique, prognostique et planification du traitement, en diminuant lesrisques pour le patient, et potentiellement les frais médicaux.Heartflow est l’exemple même d’une compagnie qui réussit ce service dans le domaine cardiovasculaire. À partir d’un modèle extrait d’images tomographiques rayons X, les lésions avec impact fonctionnel sont identifiées dans les artères coronaires. Cette analyse qui combine l’anatomie à la fonction est néanmoins limitée par la résolution de l’image. En aval de ces larges vaisseaux, un examen fonctionnel dénommé Imagerie de Perfusion du Myocarde (IPM) met en évidence les régions du myocarde affectées par un déficit de flux sanguin. Cependant, l’IPM n’établie pas de relation fonctionnelle avec les larges vaisseaux coronaires lésés en amont.L’objectif de ce projet est de construire la connexion fonctionnelle entre les coronaires et le myocarde, en extrapolant l’analyse fonctionnelle depuis les larges vaisseaux vers le lit capillaire. À cette fin, il faut étendre le modèle vasculaire jusqu'aux microvaisseaux, et mener une analyse fonctionnelle en direction du comportement myocardique.Nous étendons une méthode de génération d’arbre vasculaire basée sur la satisfaction de principes fonctionnels, nommée Constrained Constructive Optimization (Optimization Constructive sous Contraintes), pour qu’elle s’applique à de multiples arbres vasculaires en compétition. L’algorithme simule l’angiogénèse avec minimisation du volume vasculaire sous contraintes de flux et de géométrie adaptant la croissance simultanée des arbres aux caractéristiques du patient. Cette méthode fournit un modèle hybride composé de coronaires épicardiales extraites d’images et de vaisseaux synthétiques jusqu’aux artérioles, emplissant le ventricule gauche du myocarde.Puis, nous construisons un pipeline d’analyse fonctionnelle multi-échelle pour étendre la simulation de flux depuis les coronaires vers le myocarde. Cela consiste en un modèle de flux coronaire 1D compatible avec la vasculature hybride, et l’analyse de la distribution spatiale des flux provenant des segments terminaux. Cette dernière est réalisée dans une nomenclature similaire à celle de l’IPM pour permettre la comparaison avec des données de vérité terrain fonctionnelles.Nous avons relié l’anatomie du réseau vasculaire à la distribution de flux dans le myocarde pour plusieurs patients. Cette analyse multi-échelle permet d’identifier des pistes pour affiner les méthodes de génération vasculaire et de simulation de flux. Cette extrapolation anatomique et fonctionnelle personnalisée est une première passerelle pour la simulation de perfusion du myocarde à partir d’imagerie tomographique scanner. La construction d’un tel modèle computationnel personnalisé pourrait aider à la compréhension de la physio-pathologie cardiovasculaire complexe et, enfin, à la santé du patient. / Recent advances in medical image computing have allowed automatedsystems to closely assist physicians in patient therapy. Computationaland personalized patient models benefit diagnosis, prognosisand treatment planning, with a decreased risk for the patient,as well as potentially lower cost. HeartFlow Inc. is a successfull exampleof a company providing such a service in the cardiovascularcontext. Based on patient-specific vascular model extracted from XrayCT images, they identify functionally significant disease in largecoronary arteries. Their combined anatomical and functional analysisis nonetheless limited by the image resolution. At the downstreamscale, a functional exam called Myocardium Perfusion Imaging (MPI)highlights myocardium regions with blood flow deficit. However,MPI does not functionally relate perfusion to the upstream coronarydisease.The goal of our project is to build the functional bridge betweencoronary and myocardium, by extrapolating the functional analysisfrom large coronary toward the capillary bed. This objective requiresextension from the coronary model down to the microvasculaturecombined with a functional analysis leading to the myocardium compartment.We expand a tree generation method subjected to functional principles,named Constrained Constructive Optimization, to generate multiplecompeting vascular trees. The algorithm simulates angiogenesisunder vascular volume minimization with flow-related and geometricalconstraints, adapting the simultaneous tree growths to patientpriors. This method provides a hybrid image-based and synthetic geometricmodel, starting from segmented epicardium coronary downto synthetic arterioles, filling the left ventricle myocardium.We then build a multiscale functional analysis pipeline to allowblood flow simulation from the coronaries to the myocardium. Thisis achieved with a 1D coronary model compatible with the hybridvasculature, and a spatial blood flow distribution analysis of the terminalsegments. The latter is performed using a similar nomenclatureto MPI, to enable patient-specific comparison with functional groundtruthdata.We connected the vascular anatomy to blood flow distribution inthe myocardium on several patient datasets. This multiscale frameworkpoints out several leads to refine the vascular network generationand fluid simulation methods. This patient-specific anatomicaland functional extrapolation is a first gateway toward myocardiumperfusion from X-ray CT data. Building such personalized computational model of patient could potentially help investigating cardiovascularcomplex physio-pathology, and, finally, improve the patientcare.
6

Étude Mécanistique de la Synthèse Fischer- Tropsch sur des Catalyseurs au Cobalt supporté / Mechanistic investigation on cobalt based Fischer-Tropsch catalysts

Rebmann, Edouard 09 March 2016 (has links)
La synthèse Fischer-Tropsch (FT) permet de convertir un mélange d'hydrogène et de monoxyde de carbone (gaz de synthèse) sélectivement en hydrocarbures avec une distribution large de longueur de chaine. Le gaz de synthèse peut être produit à partir de différentes ressources comme le gaz naturel, le charbon et la biomasse. A la lumière de la volonté de diversifier les sources d'énergies, la synthèse FT peut apporter une contribution cruciale pour la production de carburants liquides. Les catalyseurs à base de Cobalt supportés sur alumine sont utilisés pour produire des cires lourdes. L'activité et la sélectivité dépendent des propriétés structurales et texturales du catalyseur. Cette étude a pour but d'établir un lien entre les propriétés structurales des catalyseurs à base de Cobalt supportés sur alumine et des paramètres cinétiques spécifiques. Pour atteindre cet objectif, il a été mis en oeuvre une étude cinétique en régime permanent couplé à la technique « SSITKA » sur différents échantillons de Cobalt. En utilisant cette méthodologie, il a été trouvé que la conversion en CO sur 5 catalyseurs à base de Cobalt dépend uniquement du nombre de site initial sur la surface atomique de Cobalt réduit. Aucune influence de la taille de particule, de l'orientation de la phase cristalline ou du promoteur n'a pu être mis en évid ence. Les expériences SSTIKA réalisées sur une longue durée ont permis d'estimer le nombre de sites actifs dans les conditions de travail. Enfin, la modélisation cinétique a démontré que l'espèce la plus abondante sur la surface est le monoxyde de carbone adsorbé et que deux intermédiaires distincts de surface conduisent à la production de méthane et des hydrocarbures plus lourds / The Fischer-Tropsch synthesis (FTS) converts a mixture of hydrogen and carbon monoxide (syngas) selectively into hydrocarbons with a large chain length distribution. Syngas can be produce from different resources such as natural gas, coal and biomass. In the light of energy resource diversi fication, FTS can make a crucial contribution to the production of liquid fuels. Alumina supported cobalt catalysts are used to produce heavy waxes. The activity and selectivity depend on the structural and textural properties of the catalyst. This study aims at establishing a link between the structural properties of alumina supported cobalt catalysts and specific kinetic parameters. To this purpose, the steady-state and SSITKA kinetics over different cobalt samples have been carried out. By using this met hodology, it was found that the CO conversion over 5 cobalt catalysts only depends on the initial number of reduced cobalt surface atoms. No influence of the cobalt particle size, phase orientation or promotor could be identified. SSITKA experiments during long-term catalyst testing allowed estimating the number of active sites under working conditions. Further modelling showed that the most abundant surface species is adsorbed carbon monoxide and that two distinct surface intermediates lead to the production of methane and higher hydrocarbons
7

Nástroje interní komunikace z pohledu generace Y / Methods of internal comunication from the point of view of the generation Y

Bečan, Martin January 2014 (has links)
This diploma thesis deals with the matter of internal communication methods from the point of view of today's young generation, so called generation Y. It aims on the enterprise social networks. The thesis is divided into the two common parts: the theory and the research. In the theoretical part there is a brief introduction into the field of internal communication; and the communication methods are put into the process of Communication. Further the specific methods for internal communication are introduced. The segment of enterprise social networks as a new way within the internal communication is introduced further mote. The research is connected to the theoretical part and focuses on the position of the generation Y to their potential usage of enterprise social media in internal communication within a certain company. This research is in compliance with the proposed strategy.
8

Initialize and Calibrate a Dynamic Stochastic Microsimulation Model: Application to the SimVillages Model

Lenormand, Maxime 12 December 2012 (has links) (PDF)
Le but de cette thèse est de développer des outils statistiques permettant d'initialiser et de calibrer les modèles de microsimulation dynamique stochastique, en partant de l'exemple du modèle SimVillages (développé dans le cadre du projet Européen PRIMA). Ce modèle couple des dynamiques démographiques et économiques appliquées à une population de municipalités rurales. Chaque individu de la population, représenté explicitement dans un ménage au sein d'une commune, travaille éventuellement dans une autre, et possède sa propre trajectoire de vie. Ainsi, le modèle inclut-il des dynamiques de choix de vie, d'étude, de carrière, d'union, de naissance, de divorce, de migration et de décès. Nous avons développé, implémenté et testé les modèles et méthodes suivants: * un modèle permettant de générer une population synthétique à partir de données agrégées, où chaque individu est membre d'un ménage, vit dans une commune et possède un statut au regard de l'emploi. Cette population synthétique est l'état initial du modèle. * un modèle permettant de simuler une table d'origine-destination des déplacements domicile-travail à partir de données agrégées. * un modèle permettant d'estimer le nombre d'emplois dans les services de proximité dans une commune donnée en fonction de son nombre d'habitants et de son voisinage en termes de service. * une méthode de calibration des paramètres inconnus du modèle SimVillages de manière à satisfaire un ensemble de critères d'erreurs définis sur des sources de données hétérogènes. Cette méthode est fondée sur un nouvel algorithme d'échantillonnage séquentiel de type Approximate Bayesian Computation.
9

Initialiser et calibrer un modèle de microsimulation dynamique stochastique : application au modèle SimVillages / Initialize and Calibrate a Dynamic Stochastic Microsimulation Model : application to the SimVillages Model

Lenormand, Maxime 12 December 2012 (has links)
Le but de cette thèse est de développer des outils statistiques permettant d'initialiser et de calibrer les modèles de microsimulation dynamique stochastique, en partant de l’exemple du modèle SimVillages (développé dans le cadre du projet Européen PRIMA). Ce modèle couple des dynamiques démographiques et économiques appliquées à une population de municipalités rurales. Chaque individu de la population, représenté explicitement dans un ménage au sein d’une commune, travaille éventuellement dans une autre, et possède sa propre trajectoire de vie. Ainsi, le modèle inclut-il des dynamiques de choix de vie, d’étude, de carrière, d’union, de naissance, de divorce, de migration et de décès. Nous avons développé, implémenté et testé les modèles et méthodes suivants : 1 / un modèle permettant de générer une population synthétique à partir de données agrégées, où chaque individu est membre d’un ménage, vit dans une commune et possède un statut au regard de l’emploi. Cette population synthétique est l’état initial du modèle. 2 / un modèle permettant de simuler une table d’origine-destination des déplacements domicile-travail à partir de données agrégées. 3 / un modèle permettant d’estimer le nombre d’emplois dans les services de proximité dans une commune donnée en fonction de son nombre d’habitants et de son voisinage en termes de service. 4 / une méthode de calibration des paramètres inconnus du modèle SimVillages de manière à satisfaire un ensemble de critères d'erreurs définis sur des sources de données hétérogènes. Cette méthode est fondée sur un nouvel algorithme d’échantillonnage séquentiel de type Approximate Bayesian Computation. / The purpose of this thesis is to develop statistical tools to initialize and to calibrate dynamic stochastic microsimulation models, starting from their application to the SimVillages model (developed within the European PRIMA project). This model includes demographic and economic dynamics applied to the population of a set of rural municipalities. Each individual, represented explicitly in a household living in a municipality, possibly working in another, has its own life trajectory. Thus, model includes rules for the choice of study, career, marriage, birth children, divorce, migration, and death. We developed, implemented and tested the following models : • a model to generate a synthetic population from aggregate data, where each individual lives in a household in a municipality and has a status with regard to employment. The synthetic population is the initial state of the model. • a model to simulate a table of origin-destination commuting from aggregate data in order to assign a place of work for each individual working outside his municipality of residence. • a sub-model to estimate the number of jobs in local services in a given municipality in terms of its number of inhabitants and its neighbors in terms of service. • a method to calibrate the unknown SimVillages model parameters in order to satisfy a set of criteria. This method is based on a new Approximate Bayesian Computation algorithm using importance sampling. When applied to a toy example and to the SimVillages model, our algorithm is 2 to 8 times faster than the three main sequential ABC algorithms currently available.

Page generated in 0.4739 seconds