Spelling suggestions: "subject:"brandes"" "subject:"arandes""
491 |
Evaluation et développement de modèles sous-maille pour la simulation des grandes échelles du mélange turbulent basés sur l'estimation optimale et l'apprentissage supervisé / Evaluation et development of subgrid scale models for large eddy simulation of mixing based on optimal estimator and machin learningVollant, Antoine 20 October 2015 (has links)
Dans ce travail, des méthodes de diagnostics et des techniques de développement de modèles sous-maille sont proposées pour la simulation des grandes échelles (SGE) du mélange turbulent. Plusieurs modèles sous-maille issus de ces stratégies sont ainsi présentés pour illustrer ces méthodes.Le principe de la SGE est de résoudre les grandes échelles de l'écoulement responsables des transferts principaux et de modéliser l'action des petites échelles de l'écoulement sur les échelles résolues. Au cours de ce travail, nous nous sommes appuyés sur le classement des modèles sous-maille en deux catégories. Les modèles "fonctionnels" qui s'attachent à reproduire les transferts énergétiques entre les échelles résolues et les échelles modélisées et les modèles "structurels" qui cherchent à bien reproduire le terme sous-maille. Le premier enjeu important a été d'évaluer la performance des modèles sous-maille en prenant en compte leur comportement à la fois fonctionnel (capacité à reproduire les transferts d'énergie) et structurel (capacité à reproduire le terme sous-maille exact). Des diagnosctics des modèles sous-maille ont pu être conduits avec l'utilisation de la notion d'estimateur optimal ce qui permet de connaitre le potentiel d'amélioration structurelle des modèles. Ces principes ont dans un premier temps servi au développement d'une première famille de modèles sous-maille algébrique appelée DRGM pour "Dynamic Regularized Gradient Model". Cette famille de modèles s'appuie sur le diagnostic structurel des termes issus de la régularisation des modèles de la famille du gradient. D'après les tests menés, cette nouvelle famille de modèle structurel a de meilleures performances fonctionnelles et structurelles que les modèles de la famille du gradient. L'amélioration des performances fonctionnelles consiste à supprimer la prédiction excessive de transferts inverses d'énergie (backscatter) observés dans les modèles de la famille du gradient. Cela permet ainsi de supprimer le comportement instable classiquement observé pour cette famille de modèles. La suite de ce travail propose ensuite d'utiliser l'estimateur optimal directement comme modèle sous-maille. Comme l'estimateur optimal fournit le modèle ayant la meilleure performance structurelle pour un jeu de variables donné, nous avons recherché le jeu de variable optimisant cette performance. Puisque ce jeu comporte un nombre élevé de variables, nous avons utilisé les fonctions d'approximation de type réseaux de neurones pour estimer cet estimateur optimal. Ce travail a mené au nouveau modèle substitut ANNM pour "Artificial Neural Network Model". Ces fonctions de substitution se construisent à partir de bases de données servant à émuler les termes exacts nécessaire à la détermination de l'estimateur optimal. Les tests de ce modèle ont montré qu'il avait de très bonnes perfomances pour des configurations de simulation peu éloignées de la base de données servant à son apprentissage, mais qu'il pouvait manquer d'universalité. Pour lever ce dernier verrou, nous avons proposé une utilisation hybride des modèles algébriques et des modèles de substitution à base de réseaux de neurones. La base de cette nouvelle famille de modèles ACM pour "Adaptative Coefficient Model" s'appuie sur les décompositions vectorielles et tensorielles des termes sous-maille exacts. Ces décompositions nécessitent le calcul de coefficients dynamiques qui sont modélisés par les réseaux de neurones. Ces réseaux bénéficient d'une méthode d'apprentissage permettant d'optimiser directement les performances structurelles et fonctionnelles des modèles ACM. Ces modèles hybrides allient l'universalité des modèles algébriques avec la performance élevée mais spécialisée des fonctions de substitution. Le résultat conduit à des modèles plus universels que l'ANNM. / This work develops subgrid model techniques and proposes methods of diagnosis for Large Eddy Simulation (LES) of turbulent mixing.Several models from these strategies are thus presented to illustrate these methods.The principle of LES is to solve the largest scales of the turbulent flow responsible for major transfers and to model the action of small scales of flowon the resolved scales. Formally, this operation leads to filter equations describing turbulent mixing. Subgrid terms then appear and must bemodeled to close the equations. In this work, we rely on the classification of subgrid models into two categories. "Functional" models whichreproduces the energy transfers between the resolved scales and modeled scales and "Structural" models that seek to reproduce the exact subgrid termitself. The first major challenge is to evaluate the performance of subgrid models taking into account their functional behavior (ability to reproduce theenergy transfers) and structural behaviour (ability to reproduce the term subgrid exactly). Diagnostics of subgrid models have been enabled with theuse of the optimal estimator theory which allows the potential of structural improvement of the model to be evaluated.These methods were initially involved for the development of a first family of models called algebraic subgrid $DRGM$ for "Dynamic Regularized GradientModel". This family of models is based on the structural diagnostic of terms given by the regularization of the gradient model family.According to the tests performed, this new structural model's family has better functional and structural performance than original model's family of thegradient. The improved functional performance is due to the vanishing of inverse energy transfer (backscatter) observed in models of thegradient family. This allows the removal of the unstable behavior typically observed for this family of models.In this work, we then propose the use of the optimal estimator directly as a subgrid scale model. Since the optimal estimator provides the modelwith the best structural performance for a given set of variables, we looked for the set of variables which optimize that performance. Since this set of variablesis large, we use surrogate functions of artificial neural networks type to estimate the optimal estimator. This leads to the "Artificial Neural Network Model"(ANNM). These alternative functions are built from databases in order to emulate the exact terms needed to determine the optimal estimator. The tests of this modelshow that he it has very good performance for simulation configurations not very far from its database used for learning, so these findings may fail thetest of universality.To overcome this difficulty, we propose a hybrid method using an algebraic model and a surrogate model based on artificial neural networks. Thebasis of this new model family $ACM$ for "Adaptive Coefficient Model" is based on vector and tensor decomposition of the exact subgrid terms. Thesedecompositions require the calculation of dynamic coefficients which are modeled by artificial neural networks. These networks have a learning method designedto directlyoptimize the structural and functional performances of $ACM$. These hybrids models combine the universality of algebraic model with high performance butvery specialized performance of surrogate models. The result give models which are more universal than ANNM.
|
492 |
Fouille et classement d'ensembles fermés dans des données transactionnelles de grande échelle / Mining and ranking closed itemsets from large-scale transactional datasetsKirchgessner, Martin 26 September 2016 (has links)
Les algorithmes actuels pour la fouille d’ensembles fréquents sont dépassés par l’augmentation des volumes de données. Dans cette thèse nous nous intéressons plus particulièrement aux données transactionnelles (des collections d’ensembles d’objets, par exemple des tickets de caisse) qui contiennent au moins un million de transactions portant sur au moins des centaines de milliers d’objets. Les jeux de données de cette taille suivent généralement une distribution dite en "longue traine": alors que quelques objets sont très fréquents, la plupart sont rares. Ces distributions sont le plus souvent tronquées par les algorithmes de fouille d’ensembles fréquents, dont les résultats ne portent que sur une infime partie des objets disponibles (les plus fréquents). Les méthodes existantes ne permettent donc pas de découvrir des associations concises et pertinentes au sein d’un grand jeu de données. Nous proposons donc une nouvelle sémantique, plus intuitive pour l’analyste: parcourir les associations par objet, au plus une centaine à la fois, et ce pour chaque objet présent dans les données.Afin de parvenir à couvrir tous les objets, notre première contribution consiste à définir la fouille centrée sur les objets. Cela consiste à calculer, pour chaque objet trouvé dans les données, les k ensembles d’objets les plus fréquents qui le contiennent. Nous présentons un algorithme effectuant ce calcul, TopPI. Nous montrons que TopPI calcule efficacement des résultats intéressants sur nos jeux de données. Il est plus performant que des solutions naives ou des émulations reposant sur des algorithms existants, aussi bien en termes de rapidité que de complétude des résultats. Nous décrivons et expérimentons deux versions parallèles de TopPI (l’une sur des machines multi-coeurs, l’autre sur des grappes Hadoop) qui permettent d’accélerer le calcul à grande échelle.Notre seconde contribution est CAPA, un système permettant d’étudier quelle mesure de qualité des règles d’association serait la plus appropriée pour trier nos résultats. Cela s’applique aussi bien aux résultats issus de TopPI que de jLCM, notre implémentation d’un algorithme récent de fouille d’ensembles fréquents fermés (LCM). Notre étude quantitative montre que les 39 mesures que nous comparons peuvent être regroupées en 5 familles, d’après la similarité des classements de règles qu’elles produisent. Nous invitons aussi des experts en marketing à participer à une étude qualitative, afin de déterminer laquelle des 5 familles que nous proposons met en avant les associations d’objets les plus pertinentes dans leur domaine.Notre collaboration avec Intermarché, partenaire industriel dans le cadre du projet Datalyse, nous permet de présenter des expériences complètes et portant sur des données réelles issues de supermarchés dans toute la France. Nous décrivons un flux d’analyse complet, à même de répondre à cette application. Nous présentons également des expériences portant sur des données issues d’Internet; grâce à la généricité du modèle des ensembles d’objets, nos contributions peuvent s’appliquer dans d’autres domaines.Nos contributions permettent donc aux analystes de découvrir des associations d’objets au milieu de grandes masses de données. Nos travaux ouvrent aussi la voie vers la fouille d’associations interactive à large échelle, afin d’analyser des données hautement dynamiques ou de réduire la portion du fichier à analyser à celle qui intéresse le plus l’analyste. / The recent increase of data volumes raises new challenges for itemset mining algorithms. In this thesis, we focus on transactional datasets (collections of items sets, for example supermarket tickets) containing at least a million transactions over hundreds of thousands items. These datasets usually follow a "long tail" distribution: a few items are very frequent, and most items appear rarely. Such distributions are often truncated by existing itemset mining algorithms, whose results concern only a very small portion of the available items (the most frequents, usually). Thus, existing methods fail to concisely provide relevant insights on large datasets. We therefore introduce a new semantics which is more intuitive for the analyst: browsing associations per item, for any item, and less than a hundred associations at once.To address the items' coverage challenge, our first contribution is the item-centric mining problem. It consists in computing, for each item in the dataset, the k most frequent closed itemsets containing this item. We present an algorithm to solve it, TopPI. We show that TopPI computes efficiently interesting results over our datasets, outperforming simpler solutions or emulations based on existing algorithms, both in terms of run-time and result completeness. We also show and empirically validate how TopPI can be parallelized, on multi-core machines and on Hadoop clusters, in order to speed-up computation on large scale datasets.Our second contribution is CAPA, a framework allowing us to study which existing measures of association rules' quality are relevant to rank results. This concerns results obtained from TopPI or from jLCM, our implementation of a state-of-the-art frequent closed itemsets mining algorithm (LCM). Our quantitative study shows that the 39 quality measures we compare can be grouped into 5 families, based on the similarity of the rankings they produce. We also involve marketing experts in a qualitative study, in order to discover which of the 5 families we propose highlights the most interesting associations for their domain.Our close collaboration with Intermarché, one of our industrial partners in the Datalyse project, allows us to show extensive experiments on real, nation-wide supermarket data. We present a complete analytics workflow addressing this use case. We also experiment on Web data. Our contributions can be relevant in various other fields, thanks to the genericity of transactional datasets.Altogether our contributions allow analysts to discover associations of interest in modern datasets. We pave the way for a more reactive discovery of items' associations in large-scale datasets, whether on highly dynamic data or for interactive exploration systems.
|
493 |
Nage par flambage de coque sphérique / Swimming through spherical shell bucklingDjellouli, Abderrahmane 15 June 2017 (has links)
Les micronageurs et parmi eux les microangeurs artificiels sont en général, limités à exister dans des écoulements dominés par des forces visqueses. Ces écoulements sont caractérisés par un bas nombre de Reynolds (Re). Cela impacte la stratégie de nage et plus particulièrement les séquences de forme possibles, qui doivent nécessairement être non-réciproques dans l'espace de déformation pour espérer induire un déplacement net non-nul. De plus, due aux forts effets de traînée, les vitesses de nage sont limités à des valeurs faibles.Dans cette thèse, on examine la possibilité d'utiliser un mécanisme de nage basé sur l'instabilité de flambage d'une sphère creuse. Cette instabilité est provoquée en soumettant la sphère à une onde de pression. La particularité de ce mécanisme est qu'il satisfait par construction la condition nécessaire de nage à bas Reynolds exposée précédemment. De plus, la rapidité de la déformation lors de l'instabilité pousse à prévoir l'apparition d'effets inertiels, et ce même à l'échelle microscopique.Une étude expérimentale a été conduite à l'échelle macroscopique dans le but de comprendre la dynamique de l'instabilité et son impact sur le fluide qui entoure la coque creuse. Ces expériences nous permettent de montrer qu'un déplacement net non-nul est produit pour tous les régimes d'écoulements.On met en évidence le rôle de paramètres géométriques, des propriétés du matériau composant la coque creuse et de la rhéologie du fluide sur l'efficacité de la nage.On montre l'existence d'un optimum de déplacement net pour des valeurs intermédiaires du nombre de Reynolds. Pour expliquer cela, on se sert de mesures de PIV résolues temporellement pour mettre en évidence la présence d'effets d'histoire non-triviaux qui augmentent le déplacement net.On dérive un simple modèle en se basant sur les observations expérimentales pour montrer que ce régime optimal de nage est atteignable pour des sphères microscopiques, ceci est possible grâce l'activation rapide de l'instabilité. Cette propriété permet aussi une excitation à haute fréquence en utilisant des ultrasons. Une étude d'échelle nous permet de prédire une vitesse de nage de 1 cm/s pour un micro-robot contrôlé à distance. Cet ordre de grandeur de vitesse est idéal pour des applications biologiques comme la distribution ciblée de médicaments. / Microswimmers, and among them aspirant microrobots, are generally bound to cope with flows where viscous forces are dominant, characterized by a low Reynolds number (Re). This implies constraints on the possible sequences of body motion, which have to be nonreciprocal. Furthermore, the presence of a strong drag limits the range of resulting velocities.Here, we propose a swimming mechanism which uses the buckling instability triggered by pressure waves to propel a spherical hollow shell. The particularity of this mechanism is that it fulfills naturally the necessary condition of swimming at low Re. In addition, the swiftness of the instability might produce inertial effects even at the microscopic scale.With a macroscopic experimental model we show that a net displacement is produced at all Re regimes. We put in evidence the role of geometrical parameters, shell material properties and rheology of the surrounding fluid on the swimming efficiency.An optimal displacement is reached at intermediate Re. Using time-resolved PIV measurements, we explain that non-trivial history effects take place during the instability and enhance net displacement.Using a simple model, derived from the study of shell dynamics, we show that due to the fast activation induced by the instability, this regime is reachable by microscopic shells. The rapid dynamics would also allow high frequency excitation with standard traveling ultrasonic waves. Scale considerations predict a swimming velocity of order 1 cm/s for a remote controlled microrobot, a suitable value for biological applications such as drug delivery.
|
494 |
Learning regular languages over large alphabets / Apprentissage de langages réguliers sur des alphabets de grandes taillesMens, Irini-Eleftheria 10 October 2017 (has links)
L'apprentissage de langages réguliers est un sous-ensemble de l'apprentissage automatique qui s'est révélé utile dans de nombreux domaines tels que l'intelli-gence artificielle, les réseaux de neurones, l'exploration de données, la vérification, etc. De plus, l'intérêt dans les langages définis sur des alphabets infinis ou de grande taille est croissant au fil des années. Même si plusierurs propriétés et théories se généralisent à partir du cas fini, l'apprentissage de tels langages est une tâche difficile.En effet, dans ce contexte, l'application naïve des algorithmes d'apprentissage traditionnel n'est pas possible.Dans cette thèse, nous présentons un schéma algorithmique général pour l'ap-prentissage de langages définis sur des alphabets infinis ou de grande taille, comme par exemple des sous-ensembles bornés de N or R ou des vecteurs booléens de grandes dimensions. Nous nous restreignons aux classes de langages qui sont acceptés par des automates déterministes symboliques utilisant des prédicats pour définir les transitions, construisant ainsi une partition finie de l'alphabet pour chaque état.Notre algorithme d'apprentissage, qui est une adaptation du L* d'Angluin, combine l'apprentissage classique d'un automate par la caractérisation de ses états, avec l'apprentissage de prédicats statiques définissant les partitions de l'alphabet. Nous utilisons l'apprentissage incrémental avec la propriété que deux types de requêtes fournissent une information suffisante sur le langage cible. Les requêtes du premier type sont les requêtes d'adhésions, qui permettent de savoir si un mot proposé appartient ou non au langage cible. Les requêtes du second type sont les requêtes d'équivalence, qui vérifient si un automate proposé accepte le langage cible; dans le cas contraire, un contre-exemple est renvoyé.Nous étudions l'apprentissage de langages définis sur des alphabets infinis ou de grande tailles dans un cadre théorique et général, mais notre objectif est de proposer des solutions concrètes pour un certain nombre de cas particuliers. Ensuite, nous nous intéressons aux deux principaux aspects du problème. Dans un premier temps, nous supposerons que les requêtes d'équivalence renvoient toujours un contre-exemple minimal pour un ordre de longueur-lexicographique quand l'automate proposé est incorrect. Puis dans un second temps, nous relâchons cette hypothèse forte d'un oracle d'équivalence, et nous la remplaçons avec une hypothèse plus réaliste où l'équivalence est approchée par un test sur les requêtes qui utilisent un échantillonnage sur l'ensemble des mots. Dans ce dernier cas, ce type de requêtes ne garantit pas l'obtention de contre-exemples, et par conséquent de contre-exemples minimaux. Nous obtenons alors une notion plus faible d'apprent-issage PAC (Probably Approximately Correct), permettant l'apprentissage d'une approximation du langage cible.Tout les algorithmes ont été implémentés, et leurs performances, en terme de construction d'automate et de taille d'alphabet, ont été évaluées empiriquement. / Learning regular languages is a branch of machine learning, which has been proved useful in many areas, including artificial intelligence, neural networks, data mining, verification, etc. On the other hand, interest in languages defined over large and infinite alphabets has increased in recent years. Although many theories and properties generalize well from the finite case, learning such languages is not an easy task. As the existing methods for learning regular languages depends on the size of the alphabet, a straightforward generalization in this context is not possible.In this thesis, we present a generic algorithmic scheme that can be used for learning languages defined over large or infinite alphabets, such as bounded subsets of N or R or Boolean vectors of high dimensions. We restrict ourselves to the class of languages accepted by deterministic symbolic automata that use predicates to label transitions, forming a finite partition of the alphabet for every state.Our learning algorithm, an adaptation of Angluin's L*, combines standard automaton learning by state characterization, with the learning of the static predicates that define the alphabet partitions. We use the online learning scheme, where two types of queries provide the necessary information about the target language. The first type, membership queries, answer whether a given word belongs or not to the target. The second, equivalence queries, check whether a conjectured automaton accepts the target language, a counter-example is provided otherwise.We study language learning over large or infinite alphabets within a general framework but our aim is to provide solutions for particular concrete instances. For this, we focus on the two main aspects of the problem. Initially, we assume that equivalence queries always provide a counter-example which is minimal in the length-lexicographic order when the conjecture automaton is incorrect. Then, we drop this ``strong'' equivalence oracle and replace it by a more realistic assumption, where equivalence is approximated by testing queries, which use sampling on the set of words. Such queries are not guaranteed to find counter-examples and certainly not minimal ones. In this case, we obtain the weaker notion of PAC (probably approximately correct) learnability and learn an approximation of the target language. All proposed algorithms have been implemented and their performance, as a function of automaton and alphabet size, has been empirically evaluated.
|
495 |
Uma abordagem em paralelo para matching de grandes ontologias com balanceamento de carga. / A parallel approach for matching large ontologies with load balancing.ARAÚJO, Tiago Brasileiro. 01 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-01T19:28:54Z
No. of bitstreams: 1
TIAGO BRASILEIRO ARAÚJO - DISSERTAÇÃO PPGCC 2016..pdf: 18742851 bytes, checksum: 92b3eefe5e78ab27784255e850871df9 (MD5) / Made available in DSpace on 2018-08-01T19:28:54Z (GMT). No. of bitstreams: 1
TIAGO BRASILEIRO ARAÚJO - DISSERTAÇÃO PPGCC 2016..pdf: 18742851 bytes, checksum: 92b3eefe5e78ab27784255e850871df9 (MD5)
Previous issue date: 2016-03-07 / Atualmente, o uso de grandes ontologias em diversos domínios do conhecimento está aumentando. Uma vez que estas ontologias podem apresentar sobreposição de conteúdo, a identificação de correspondências entre seus conceitos se torna necessária. Esse processo é chamado de Matching de Ontologias (MO). Um dos maiores desafios do matching de grandes ontologias é o elevado tempo de execução e o excessivo consumo de recursos de computacionais. Assim, para melhorar a eficiência, técnicas de particionamento de ontologias e paralelismo podem ser empregadas no processo de MO. Este trabalho apresenta uma abordagem para o Matching de Ontologias baseado em Particionamento e Paralelismo (MOPP) que particiona as ontologias de entrada em subontologias e executa as comparações entre conceitos em paralelo, usando o framework MapReduce como solução programável. Embora as técnicas de paralelização possam melhorar a eficiência do processo de MO, essas técnicas apresentam problemas referentes ao desbalanceamento de carga. Por essa razão, o presente trabalho propõe ainda duas técnicas para balanceamento de carga (básica e refinada) para serem aplicadas junto à abordagem MOPP, a fim de orientar a distribuição uniforme das
comparações (carga de trabalho) entre os nós de uma infraestrutura computacional. O desempenho da abordagem proposta é avaliado em diferentes cenários (diferentes tamanhos de ontologias e graus de desbalanceamento de carga) utilizando uma infraestrutura computacional e ontologias reais e sintéticas. Os resultados experimentais indicam que a abordagem MOPP é escalável e capaz de reduzir o tempo de execução do processo de MO. No que diz respeito às técnicas de balanceamento de carga, os resultados obtidos mostram que a abordagem MOPP é robusta, mesmo em cenários com elevado grau de desbalanceamento de carga, com a utilização da técnica refinada de balanceamento de carga. / Currently, the use of large ontologies in various áreas of knowledge is increasing. Since,
these ontologies can present contents overlap, the identification of correspondences among their concepts is necessary. This process is called Ontologies Matching (OM). One of the major challenges of the large ontologies matching is the high execution time and the computational resources consumption. Therefore, to get the efficiency better, partition and parallel techniques can be employed in the MO process. This work presents a Partition-Parallelbased Ontology Matching (PPOM) approach which partitions the input ontologies in subontologies and executes the comparisons between concepts in parallel, using the framework MapReduce as a programmable solution. Although the parallel techniques can get the MO efficiency process better, these techniques present problems concerning to the load imbalancing. For that reason, our work has proposed two techniques to the load balancing - the basic and the fine-grained one - which are supposed to be applied together with the PPOM approach, in order to orientate the uniform distribution of the comparisons (workload) between the nodes of a computing infrastructure. The performance of the proposed approach is assessed in different settings (different sizes of ontologies and degrees of load imbalancing) using a computing infrastructure and real and synthetic ontologies. The experimental results have indicated that the PPOM approach is scalable and able to reduce the OM process execution time. Referring to the load balancing techniques, the obtained results have shown that the PPOM approach is robust, even in settings with a high load imbalancing, with the fine-grained load balancing technique.
|
496 |
Big risks and misrepresented and incomplete information / Grandes riesgos e información tergiversada e incompletaNúñez del Prado Simons, Alonso 12 April 2018 (has links)
The author analyzes the European concept of ‘Large Risk’, a subject which has been misunderstood in Latin America. He defend the Peruvian alternative that prefer the Judicial Review instead of the amount limits; and criticize the Project presented in the Peruvian Congress which pretends the second one, following the Chilean law that has deformed –in his opinion– the original (European) idea. / El autor analiza el concepto de ‘grandes riesgos’, de origen europeo que ha sido y pretende ser mal utilizado en Latinoamérica. Defiende la alternativa legislativa por la que se optó en la ley de contrato de seguro de Perú, donde se estableció una especie de control difuso en vez del establecimiento de montos que delimiten la barrera. Critica el Proyecto de ley presentado en el Congreso peruano que pretende imitar el camino chileno.
|
497 |
Explicit and implicit large eddy simulation of turbulent combustion with multi-scale forcing / Simulation des grandes échelles explicite et implicite de la combustion turbulente avec forçage multi-échellesZhao, Song 03 May 2016 (has links)
Le contexte de cette étude est l’optimisation de la combustion turbulente prémélangée de syngaz pour la production propre d’énergie. Un brûleur CH4/air de type bec Bunsen avec forçage turbulent multi-échelles produit par un système de trois grilles, est simulé numériquement par différentes techniques de simulation des grandes échelles (SGE), et les résultats sont comparés à l’expérience. On a développé et appliqué une formulation bas-Mach du solveur Navier-Stokes basé sur différents schémas numériques, allant des différences finies centrées d’ordre 4 à des versions avancées des schémas WENO d’ordre 5. La méthodologie est évaluée sur une série de cas-tests classiques (flamme laminaire 1D prémélangée, turbulence homogène et isotrope en auto-amortissement), et sur des simulations 2D de la flamme turbulente prémélangée expérimentale. Les SGE implicites (ILES), i.e. sans aucune modélisation sous-maille, et explicites avec le modèle de flamme épaissie et un modèle de plissement sous-maille nouvellement élaboré (TFLES), sont appliquées à la simulation 3D du brûleur expérimental. Les résultats montrent que l’approche TFLES avec un schéma d’ordre élevé à faible dissipation numérique prédit correctement la longueur de la flamme et la densité de surface de flamme. La SGE implicite avec un schéma WENO avancé produit une flamme trop courte mais réaliste à condition que la taille de la maille soit de l’ordre de l’épaisseur de flamme laminaire. La représentation des interactions flamme/turbulence est néanmoins très différente entre TFLES et ILES. / The context of this study is the optimization of premixed turbulent combustion of syngas for clean energy production. A Bunsen-type CH4/air turbulent premixed burner with a multi-scale grid generator is simulated with different Large Eddy Simulation (LES) strategies and compared to experimental results. A low-Mach formulation of a compressible Navier-Stokes solver based on different numerical methods, ranging from 4th order central finite difference to 5th order advanced WENO schemes, is developed and applied. Classical test cases (1D laminar premixed flame, decaying HIT), and 2D simulations of the turbulent premixed flame are performed to assess the numerical methodology. Implicit LES (ILES), i.e. LES without any explicit subgrid modeling, and explicit LES with the Thickened Flame model and subgrid scale flame wrinkling modelling (TFLES) are applied to simulate numerically the 3D experimental burner. Results show that TFLES with a high-order low dissipation scheme predicts quite well the experimental flame length and flame surface density. ILES with advanced WENO schemes produces a slightly shorter although realistic flame provided the grid spacing is of order of the laminar flame thickness. The representation of flame/turbulence interactions in TFLES and ILES are however quite different.
|
498 |
Problemática da Água nos Grandes Centros Urbanos – Estudo de Caso: Cidade de Salvador e Região Metropolitana, Estado da Bahia, BrasilMesquita, Francisco José Gomes 03 1900 (has links)
Submitted by Everaldo Pereira (pereira.evera@gmail.com) on 2017-02-20T14:05:24Z
No. of bitstreams: 1
TESE_Francisco_J_Mesquita.pdf: 47318129 bytes, checksum: 3a0c5df9e02ca0a2ae9a0c59675115cc (MD5) / Made available in DSpace on 2017-02-20T14:05:24Z (GMT). No. of bitstreams: 1
TESE_Francisco_J_Mesquita.pdf: 47318129 bytes, checksum: 3a0c5df9e02ca0a2ae9a0c59675115cc (MD5) / Os grandes centros urbanos enfrentam hoje grandes desafios para suprir as necessidades de uma população em crescimento constante. Dentre esses desafios, a água é aquele que tem gerado conflitos diversos, destacando-se a questão do abastecimento urbano, que deverá afligir a humanidade ao longo dos próximos 20 anos. Este trabalho tem como principal objetivo analisar a situação do atual modelo de abastecimento de água do município de Salvador e sua Região Metropolitana, propondo formas alternativas de lidar com a questão. Como todos os grandes centros urbanos mundiais, a Região Metropolitana de Salvador (RMS) apresenta problemas e potencialidades que devem ser compreendidas e observadas com a finalidade de dimensionar adequadamente as fontes de abastecimentos para atender a demanda de água. Com o contínuo crescimento populacional e a mudança dos padrões de consumo, a necessidade de gerenciamento adequado dos sistemas de abastecimentos cresce a cada dia. Os recursos hídricos destacam-se entre os temas a serem planejados e discutidos, já que o recurso água é indispensável à vida, estando as águas pluviais como um dos temas de maior interesse, pois recompõem os níveis de água subterrânea e superficial. O atual modelo utilizado para o abastecimento de água da Região Metropolitana de Salvador, previsto para o horizonte 2030, não considera tal premissa, vez que é pautado no eixo central, e praticamente único, a água disponível nos mananciais do Rio Joanes (barragens Joanes-I e Joanes-II), do Rio do Cobre (Barragem do Cobre), do Rio Ipitanga (barragens Ipitanga-I, Ipitanga-II e Ipitanga-III), do Rio Jacuipe (Barragem Santa Helena) e do Rio Paraguaçu (Barragem Pedra do Cavalo) com vazão disponível prevista para o horizonte 2030 de 20,87 m3/s é superior à demanda total de água bruta projetada para 2030 que será de 18,32 m3/s. A partir dos dados e discussões apresentados nesta tese, conclui-se que o modelo de abastecimento urbano da água precisa ser repensado. Esse modelo baseia-se numa distribuição centralizada através de grandes redes que tem elevado custo, tanto na implantação, como na operação e distribuição da água tratada. Sendo que para muitos usos, sequer necessitam da água potável. É preciso também rever a lógica predominante, pela qual se acredita que a solução dos problemas de distribuição virá unicamente através de grandes obras e que o recurso hídrico é apenas a água que corre pelos rios. A captação direta de águas pluviais nas cidades, como fonte suplementar às redes públicas, representa outra alternativa que poderá trazer grandes benefícios à população. / ABSTRACT - Large urban centers today face major challenges to meet the needs of a growing population. Among these challenges is the water that has generated many conflicts, highlighting the issue of urban water supply that will afflict mankind over the next 20 years. This work aims to analyze the situation of the current model of water supply of the city of Salvador and its metropolitan region, proposing alternative ways of dealing with the issue. Like all major world cities, the metropolitan area of Salvador (RMS), and presents potential problems that must be understood and observed in order to properly size the sources of supply to meet the demand for water. With continuing population growth and changing consumption patterns, he need for adequate management of supply systems grows every day. Water resources stand out among the topics to be discussed and planned, as the water resource is essential to life, standing rain water as one of the topics of greatest interest because recompose groundwater levels and surface water. The current model used for the water supply of the metropolitan region of Salvador planned for the horizon 2030, does this premise, since it is grounded in the central and almost single-axis water available in the watershed: the river Joanes (dams Joanes Joanes-I and-II), Copper (Copper dam) river, Ipitanga (dams Ipitanga-I,-II and Ipitanga Ipitanga-III), the river Jacuipe (dam Helena) river and Paraguassu river (dam Stone Horse) with available flow forecast for the horizon 2030 20.87 m3/s is greater than the total raw water demand projected for 2030 will be 18.32 m3/s. From the data and discussion presented in this thesis, it is concluded that the model of urban water supply need to be rethought. This model is based on a centralized distribution across large networks that have high cost in both deployment and operation as the distribution of treated water. Since for many uses even require drinking water. You must also review the prevailing logic by which it is believed that the solution to distribution problems will come only through great works and water resources is only the water that flows through the rivers. Direct rainwater harvesting in cities as supplementary source the public networks, represents another alternative to capture that could bring great benefits to the population.
|
499 |
Grandes empreendimentos e desenvolvimento local: proposição de modelo de avaliação do impacto da implantação do Polo Industrial e Tecnológico da Saúde, em Eusébio-CE, no desenvolvimento local sustentável da regiãoSouza, Juliana Bezerra de 24 November 2017 (has links)
Submitted by Juliana Bezerra de Souza (julianarj47@hotmail.com) on 2018-01-16T11:04:06Z
No. of bitstreams: 1
Dissertacao_JulianaSouza_MAP.pdf: 2422404 bytes, checksum: 8e7ec64586fe2c5ad561dc559266aa53 (MD5) / Approved for entry into archive by ÁUREA CORRÊA DA FONSECA CORRÊA DA FONSECA (aurea.fonseca@fgv.br) on 2018-01-16T12:13:44Z (GMT) No. of bitstreams: 1
Dissertacao_JulianaSouza_MAP.pdf: 2422404 bytes, checksum: 8e7ec64586fe2c5ad561dc559266aa53 (MD5) / Made available in DSpace on 2018-01-30T11:59:11Z (GMT). No. of bitstreams: 1
Dissertacao_JulianaSouza_MAP.pdf: 2422404 bytes, checksum: 8e7ec64586fe2c5ad561dc559266aa53 (MD5)
Previous issue date: 2017-11-24 / Objective- This dissertation proposes a model to evaluate the impact of the implementation of the Polo Industrial e Tecnológico da Saúde (PITS), in Eusébio-CE, on development indicators of the affected area. Methodology- Two different approaches to estimate the impacts of the PITS are presented, both of which rely on comparisons between development indicators of the area directly affected with that of similar areas not affected by the enterprise. One consists of comparing the whole Fortaleza metropolitan region with a synthetic Fortaleza, which is constructed by weighing other metropolitan regions in the country. The second approach consists of comparing Human Development Units (UDH) in the immediate vicinity of PITS with that of similar UDHs, both in the Fortaleza metropolitan area and other metropolitan areas of the North and Northeast of the country. Results- The dissertation generated an impact evaluation model that can be characterized as ex-post and quantitative, and which can now be implemented in a relatively straightforward way once post-intervention data become available. Limitations- The dissertation consists only of the design of the impact evaluation. The actual evaluation will only be carried out once post-intervention data become available. Practical contributions- The dissertation generated an evaluation tool that can be implemented, in the future, by any interested party, such as local governments, academics or Fiocruz itself. Social contributions- If implemented, the impact evaluation can inform policymakers’ decisions. The dissertation can also help disseminate the notions of impact evaluation. Originality- The impact assessment of interventions and policies is still not widely disseminated among public entities. As such, the dissertation generates an innovative applied tool for policymakers. / Objetivo- Este trabalho visa propor um modelo de avaliação do impacto da implantação de um grande empreendimento, o Polo Industrial e Tecnológico da Saúde (PITS), em Eusébio-CE, em indicadores de desenvolvimento local sustentável da região. Metodologia- São apresentadas duas abordagens diferentes para estimar o impacto do PITS, ambas considerando a comparação entre indicadores de desenvolvimento sustentável da área diretamente afetada pela intervenção com áreas similares, não afetadas pela intervenção. A primeira abordagem consiste na comparação da Região Metropolitana de Fortaleza com uma região metropolitana sintética à de Fortaleza, que foi construída pelo balanceamento de outras regiões metropolitanas do país. A segunda visa comparar as Unidades de Desenvolvimento Humano (UDH’s) imediatamente adjacentes ao Polo, com UDH’s com perfil socioeconômico semelhantes, tanto da Região Metropolitana de Fortaleza, como de outras regiões metropolitas do Norte e Nordeste do país. Resultados- O resultado do trabalho é um modelo de avaliação de impacto que pode ser caracterizado como ex post e quantitativo, e que pode ser implementado de forma relativamente direta, uma vez que os dados pós-intervenção estejam disponíveis. Limitações- O trabalho consiste apenas no desenho do modelo de avaliação de impacto. A aplicação da avaliação só poderá ser realizada quando os dados pós-intervenção forem disponibilizados pelas fontes secundárias. Contribuições práticas- A ferramenta de avaliação poderá ser aplicada, no futuro, por qualquer parte interessada na obtenção desses dados como, por exemplo, órgãos públicos locais, instituições acadêmicas e a própria Fiocruz, instituição âncora do Polo. Contribuições sociais- Se implementada, a avaliação de impacto poderá orientar as decisões dos gestores locais no sentido de se promover a sustentabilidade da região e do empreendimento. O trabalho também pode contribuir para a disseminação dos conceitos e noções sobre avaliação de impacto. Originalidade- A avaliação de impacto de intervenções e políticas públicas ainda não é amplamente disseminada entre entidades públicas. Dessa forma, a dissertação gera uma ferramenta aplicada inovadora para formuladores de políticas.
|
500 |
Caractérisation et modélisation du comportement hyper-viscoelastique d'un élastomère chargé pour la simulation de pièces lamifiées élastomère-métal et étude en fatigue / Characterization and modelling of the hyper-viscoelastic behaviour of a filled rubber in order to simulate elastomer-metal laminated devices and study of fatigueDelattre, Alexis 19 September 2014 (has links)
Dans le cadre d’une Cifre avec Airbus Helicopters, le projet a pour but le développement d’un modèle pour le pré-dimensionnement de pièces lamifiées élastomère-métal dont le rôle est critique en termes de conception et de sécurité pour les architectures de rotors d’hélicoptères. Pour cela, un premier volet de la thèse a consisté à caractériser le comportement élasto-dissipatif du matériau d’étude (un butadiène chargé de noir de carbone) via une campagne d’essais statiques et dynamiques, sous différents modes de sollicitations (uniaxiales et biaxiales) et sur un spectre assez large de fréquences, d’amplitudes et de températures. A partir de ces observations, un modèle phénoménologique de comportement hyper-viscoélastique est proposé. Sur la base d’un modèle de Maxwell généralisé, il permet de traduire les phénomènes observés sur la gamme de sollicitations visées. Un accent particulier a été porté sur la prise en compte de l’effet Payne en adoptant une approche originale. Les paramètres du modèle sont identifiés par une méthode robuste et rapide. Le modèle est ensuite développé à la fois dans un code commercial de calcul par éléments finis et dans un outil de calcul basé sur une méthode de réduction de modèles. Enfin, une étude du comportement en fatigue est réalisée à travers une campagne d’essais originaux servant de point de départ à la proposition d’une loi d’endommagement continu. / In association with Airbus Helicopters, the aim of the project is to develop a model to pre-size elastomer-metal laminated devices whose role is critical in terms of design and safety for helicopters rotor architectures. To do so, the first part of this thesis consisted in characterizing the elasto-dissipatice behavior of the studied material (a carbon black filled butadiene rubber) thanks to static and dynamic tests, with several kind of loading (uni-axial and bi-axial) and over a wide range of frequences, amplitudes and temperatures. From these observations, a phenomenological hyper-viscoelastic model is proposed. Based on a generalized Maxwell model, it is able to describe the phenomena over the loading range of concern. A particular focus is made to take in account the Payne effect thanks to an original approach. The model parameters are identified with a fast and robust method. The model is then implemented in a commercial finite element code and in a tool based on a model reduction method. Last, a study of the behaviour in fatigue is performed with an original characterization campaign from which a continuous damage law is proposed.
|
Page generated in 0.076 seconds