• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3158
  • 289
  • 267
  • 27
  • 25
  • 17
  • 17
  • 17
  • 11
  • 9
  • 9
  • 9
  • 7
  • 6
  • 4
  • Tagged with
  • 3822
  • 1178
  • 1012
  • 579
  • 546
  • 534
  • 478
  • 456
  • 442
  • 389
  • 332
  • 330
  • 317
  • 304
  • 303
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Supporting requirements engineering processes in small software enterprises

Quispe Sanca, Alcides January 2015 (has links)
Doctor en Ciencias, Mención Computación / Existen muchas variables que influyen en el éxito de un proyecto de software; sin embargo es ampliamente reconocido que el uso de Prácticas de Ingeniería de Requisitos (PIR) apropiadas contribuye en dicho éxito. Por esta razón es posible encontrar muchas PIR reportadas en la literatura. Sin embargo, a pesar de que estas PIR suelen estar bastante bien descritas, los autores no siempre proveen información clara acerca del contexto del proyecto (por ejemplo, tipo de proyecto, tipo de cliente, experiencia del equipo de desarrollo, duración del proyecto, etc.) en el que son útiles. Por lo tanto, determinar las PIR más apropiadas para un proyecto dado pude ser difícil para una empresa de software, en particular para las pequeñas empresas de software (PES), que usualmente encuentran un gran desafío en la selección de las PIR más apropiadas para un proyecto dado. Con el propósito de ayudar a los ingenieros de procesos o jefes de proyectos de una PES en este problema, este trabajo de investigación realizó un estudio empírico para lograr entender cuán útiles son las PIR para las PES reportadas en la literatura. Después de haber realizado una revisión literaria, se identificaron 266 PIR para las PES. Luego, este conjunto fue reducido y simplificado tomando en consideración similitudes entre los objetivos de dichas PIR y su granularidad. Finalmente, se logró identificar un conjunto de 45 PIR como potencialmente útiles (según la literatura) para las PES. Para entender la utilidad de estas PIR propuestas en la literatura, se realizaron varios casos de estudio en dos tipos de ambientes de desarrollo de software: (1) un ambiente académico, donde proyectos de software para clientes reales son desarrollados por alumnos del 5to año de ingeniería civil en computación de la universidad de Chile; y (2) un ambiente de la industria, donde se estudiaron cinco PES chilenas bien establecidas en el mercado. Luego de haber estudiado en profundidad los procesos de software y las PIR en cada uno de estos dos escenarios, este estudio encontró que casi la mitad de las PIR (47%, 21 de 45) son usadas por las PES en todos sus proyectos, sin importar el contexto de dichos proyectos. Esto sugiere que hay un conjunto de PIR que toda PES bebería incluir en sus procesos de software. Este estudio también encontró que un 22% de las PIR (10 de 45) son usados por las PES dependiendo del contexto de sus proyectos. En particular, las PES estudiadas usan estas PIR solamente cuando desarrollan nuevos proyectos. El restante 31% de las PIR (14 de 45) es raramente o nunca usado por las PES en sus proyectos de software. Estos resultados pueden guiar a los ingenieros de procesos y jefes de proyectos cada vez que tengan que definir las PIR más adecuadas para sus proyectos de software. De esta forma se estaría ayudando a reducir el nivel de incertidumbre acerca de la potencial utilidad que tienen las PIR para las PES.
72

Herramienta para comparar procesos de software de Pymes

Rojas Rojas, Leonardo Andrés January 2014 (has links)
Ingeniero Civil en Computación / Los resultados de los desarrollos de software siguen siendo mayoritariamente inciertos, como hace 10 o 15 años atrás. Varios estudios actuales indican que menos del 50% de los proyectos de software desarrollados son considerados exitosos. Sin embargo, esta tasa de éxito se reduce considerablemente si sólo tomamos en cuenta los proyectos desarrollados por Pequeñas y Medianas Empresas (PyMEs) de software. Esta tasa de éxito de las PyMEs se puede explicar en parte, porque estas organizaciones cuentan con menos recursos económicos y humanos que el resto de las empresas. Además, los desarrolladores de estas empresas cuentan usualmente con un nivel de experiencia y conocimiento mediano-bajo. Por otra parte, los procesos de desarrollo de software de los que disponen las PyMEs son muy informales e inmaduros. Esto se debe a que usualmente ocupan un proceso propio que, basado en experiencias previas, les ha dado resultados satisfactorios. Típicamente estos procesos no toman en cuenta las buenas prácticas de la industria u otros procesos de desarrollo estándares, debido a que los ingenieros de proceso o jefes de proyectos de estas empresas no son muy conscientes de qué prácticas son recomendadas. Por lo tanto, no saben bien cómo intervenir sus procesos para hacerlos más robustos, eficientes, efectivos y previsibles. Esto representa un gran problema, debido a que las PyMEs de software conforman la mayor parte de la industria del software a nivel mundial. El presente trabajo de memoria busca ayudar a mejorar los procesos de software de las PyMEs, y de esa manera lograr mejorar indirectamente la tasa de éxito y la previsibilidad de los proyectos de software desarrollados por este tipo de empresas. Para lograr ese objetivo se desarrolló una plataforma Web que permite a sus usuarios ingresar el proceso de desarrollo de software de una PyME, y compararlo contra procesos de otras empresas o contra estándares y recomendaciones internacionales. Como resultado de esa comparación se muestran las prácticas recomendadas, las cuales han sido consideradas en el proceso de software de la PyME, y también aquellas que no han sido incluidas en dicho proceso. Utilizando el resultado de estas comparaciones entre procesos, se pretende que los ingenieros de proceso o jefes de proyecto puedan mejorar, refinar u obtener un proceso de desarrollo de software que se ajuste a sus necesidades y les proporcione resultados satisfactorios, cumpliendo además con las buenas prácticas de la industria. El tener un proceso de software más definido y personalizado usualmente ayuda a disminuir el riesgo de los proyectos de software. Para lograr esto no se necesita que las empresas inviertan una gran cantidad de recursos, debido a la naturaleza pública y gratuita de la plataforma desarrollada. La plataforma permite además obtener información estadística a partir de la comparación de procesos, la cual proporciona una guía para mejorar o personalizar los procesos de interés de cada usuario o empresa. Luego de diversas pruebas realizadas a la plataforma Web, y gracias a la retroalimentación de múltiples usuarios (quienes eran expertos en procesos de desarrollo de software), se ha llegado a la conclusión de que la herramienta funciona correctamente y compara los procesos de acuerdo a lo esperado. Sin embargo, ésta aún necesita mejorar su usabilidad, para así llegar a tener el impacto que se espera. Claramente, la mejora de este aspecto es parte del trabajo a futuro.
73

P-Particiones convexas en una familia de grafos construidos mediante reemplazos

Contreras Salinas, Felipe Guillermo January 2016 (has links)
Magíster en Ciencias de la Ingeniería, Mención Matemáticas Aplicadas. Ingeniero Civil Matemático / Un conjunto de vértices de un grafo se dice convexo si contiene a los vértices de todos los caminos mínimos entre sus vértices. El problema de determinar si un grafo tiene una partición en p conjuntos convexos es NP-completo, pero hay diversas familias de grafos en las que se puede resolver en tiempo polinomial. El foco principal de este trabajo es estudiar el problema de la p-partición convexa en una familia de grafos definida recursivamente al reemplazar los vértices de un bosque por grafos de ésta. Esta familia resulta ser cerrada para subgrafos inducidos. Sin embargo, no queda totalmente determinada la familia de subgrafos prohibidos que determina a esta familia. Además, estos grafos resultan ser perfectos, por lo que varios problemas combinatoriales resultan tener soluciones polinomiales en esta familia. Además, se entrega un algoritmo polinomial para reconocer si un grafo pertenece a esta familia. Para atacar el problema de las particiones convexas en este contexto, combinaremos, mediante programación dinámica, particiones en subgrafos tales que sus particiones convexas son de tres tipos: todos los vértices, particiones en cliques y particiones en cliques más un conjunto localmente convexo. En el caso de las particiones en cliques, se entrega un algoritmo polinomial que lo resuelve. / Este trabajo ha sido parcialmente financiado por CONICYT mediante Proyecto Basal PFB 03
74

Reingeniería de Xilab: Sistema genérico de administración y levantamiento de datos para geología

Ardila García, Felipe Ignacio January 2018 (has links)
Ingeniero Civil en Computación / En la industria de la geología existen varias estrategias para realizar exploraciones mineras, una de estas es la realización de proyectos que requieran realizar sondajes geológicos. Los sondajes consisten en una perforación profunda en la tierra para extraer muestras de suelo y así poder perfilar las propiedades geológicas de una zona. Xilab es un sistema realizado por la empresa Geomintec para apoyar las tareas de perfilamiento de suelos mediante interfaces que permiten el almacenamiento de información de sondajes y mapas resultantes de exploraciones en terreno, esta tarea se llama mapeo. Generalmente estas exploraciones en terreno son realizadas por geólogos utilizando tablets y en lugares que carecen de acceso a internet. En la actualidad este sistema esta siendo utilizado por empresas como Codelco y Antofagasta Minerals. Xilab fue implementado en Visual Basic, un lenguaje deprecado hace más de 19 años, por lo que su extensibilidad y mantenibilidad es muy baja. Esta situación dificulta al posibilidad de permitir que este software sea comercializado fuera de Chile. Por lo tanto el objetivo de este trabajo de memoria es la reingeniería de una componente de este sistema, los mapeadores, utilizando tecnologías más modernas que permiten una mejor mantenibilidad y extender las funcionalidades actuales. El trabajo de reingeniería consistió en evaluar la implementación actual del software de mapeo junto con el cliente, identificar las falencias del software y entender su comportamiento para así poder replicarlo. Hecho esto, se decidió una plataforma de desarrollo adecuada para implementar la solución y se definieron requisitos básicos con respecto a la interfaz. Finalmente se implementó el objetivo propuesto y se evaluó la calidad de esta solución. La evaluación del software implementado revela que en general el código tiene buena extensibilidad, escalabilidad, mantenibilidad y legibilidad lo que queda demostrado por las métricas escogidas. La interfaz se logró parecer a la implementación anterior, manteniendo las funcionalidades, lo cual evita complicaciones del usuario al momento de migrar de aplicación. Por lo tanto se cumplieron los objetivos planteados en esta memoria. Como trabajo futuro se propone extender el módulo de mapeo para soportar perfiles de despliegue de información y así tener una mejor visualización de los sondajes en la aplicación. También es necesario implementar el módulo de mapeo para mapas y permitir geolocalización de sondajes.
75

Um método para incrementar a extração automática de palavras-chave de textos baseado na expansão do conjunto de treinamento com termos candidatos inferidos a partir de modelos de conhecimento / A method to increment the automatic keyphrases extraction of texts based on the expansion of the training set with candidate terms inferred from knowledge models (Inglês)

Silveira, Francisca Raquel de Vasconcelos 18 April 2018 (has links)
Made available in DSpace on 2019-03-30T00:06:02Z (GMT). No. of bitstreams: 0 Previous issue date: 2018-04-18 / Extraction keyphrase systems traditionally use classification algorithms and do not consider the fact that part of the keyphrases may not be found in the text, reducing the accuracy of such algorithms a priori. In this work, it is proposed to improve the accuracy of these systems, expanding the training set used by classification algorithms with terms that are not in the text (not-in-text terms) inferred from knowledge models such as knowledge bases and distributional semantics. The basic assumption of the thesis is that not-in-text terms have a semantic relationship with terms that are in the text. For capturing and representing this relationship, we have defined three new heuristics to characterize the relevance of the not-in-text terms to be keyphrases. The first heuristic have the objective of capturing if the semantic relatedness of a not-in-text term (in relation to the other terms in the text) is higher than the semantic relatedness of the textual term from which it was inferred. The intuition is that terms that are more semantically related to other terms in the document are more likely to represent the text. The second feature refers to the power of discrimination of the inferred not-in-text term. The intuition behind this is that good candidates to be a keyphrase are those that are deduced from various textual terms in a specific document and that are not often deduced in other documents. The other feature represents the descriptive strength of a not-in-text candidate. We argue that not-in-text keyphrases must have a strong semantic relationship with the text and that the power of this semantic relationship can be measured in a similar way as popular metrics like TFxIDF. The method proposed in this work was compared with state-of-the-art systems using seven corpora and the results show that it has significantly improved automatic keyphrase extraction, dealing with the limitation of extracting keyphrases absent of the text. Keywords: Keyphrases extraction. Keyphrases absent from the text. Deduction of keyphrases. Knowledge models. / Sistemas de extração de palavras-chave tradicionalmente usam algoritmos de classificação e não consideram o fato que parte das palavras-chave podem não ser encontradas no texto, reduzindo a acurácia desses algoritmos. Neste trabalho, propõe-se melhorar a acurácia desses sistemas, expandindo o conjunto de treinamento usado pelos algoritmos de classificação com termos que não estão no texto (termos não-texto) inferidos de modelos de conhecimento, tais como bases de conhecimento e semântica distributiva. A suposição básica da tese é que termos não-texto têm um relacionamento semântico com os termos que estão no texto. Para capturar e representar esse relacionamento, foram definidas três novas heurísticas para caracterizar a relevância dos termos não-texto a serem palavras-chave. A primeira heurística tem o objetivo de capturar se o relacionamento semântico de um termo não-texto (em relação aos outros termos no texto) é maior que o relacionamento semântico do termo do texto que o inferiu. A intuição é que termos que são mais relacionados semanticamente a outros termos no documento são mais prováveis para representar o texto. A segunda heurística refere-se ao poder de discriminação do termo não-texto. A intuição é que bons candidatos para ser uma palavra-chave são aqueles que são deduzidos de vários termos do texto em um documento específico e que não são frequentemente deduzidos em outros documentos. A outra heurística representa o poder descritivo de um candidato não-texto. Argumenta-se que palavras-chave não-texto devem ter um forte relacionamento semântico com o texto e que o poder desse relacionamento semântico pode ser medido em uma maneira similar como métricas populares, tal como TFxIDF. O método proposto neste trabalho foi comparado com sistemas de estado-da-arte usando sete corpora e os resultados exibem que o método proposto tem melhorado significativamente a extração automática de palavras-chave em documentos desses corpora, lidando com a limitação de extrair palavras-chave ausentes do texto. Palavras-chave: Extração de palavras-chave. Palavras-chave ausentes do texto. Dedução de palavras-chave. Modelos de conhecimento.
76

Otimização dos parametros de um controlador pid para uma interface cérebro-máquina com neurofeedback baseado em potencial evocado visual de regime permanente / OPTIMIZATION OF THE PARAMETERS OF A PID CONTROLLER FOR A BRAIN-MACHINE INTERFACE WITH NEUROBIOFEEDBACK BASED ON POTENTIAL EVOCADO VISUAL OF PERMANENT REGIME (Inglês)

Nogueira, Daniel Fontenele 30 June 2017 (has links)
Made available in DSpace on 2019-03-30T00:14:19Z (GMT). No. of bitstreams: 0 Previous issue date: 2017-06-30 / Neurofeedback based systems play a major role in psychological and rehabilitation treatments, correcting disturbances in brain functioning, stimulating and developing the abilities of the individuals who use them. To make these systems faster and more accurate, digital controllers, such as PIDs, contribute to better responses to the stimuli used throughout the treatments, and the parameters of the controllers have a great influence on the success of the method. This work seeks to automate parameter calculations and investigates their responses to a single step input for the four types of digital controllers most used (proportional, proportional-derivative, proportional-integrative and proportional-integral-derivative) to control a Brain Computer Interface with Neurofeedback using Steady State Visually Evoked Potential (SSVEP). The calculations of these parameters were performed considering the Ziegler-Nichols Rule Reaction Curve method, determining and analysing the transfer functions of these systems. Thus, it is possible to decompose the Signal-Noise Ratio (SNR) data obtained from an electroencephalogram cap using 34 channels in eleven healthy individuals. As a result, this study concludes that, for the studied samples, the PID controller and the parameter optimisations of this controller contribute strongly to the SSVEP system being robust and can provide quite satisfactory clinical results Keywords: Neurofeedback. Computational Neuroscience. Occipital. EEG. SNR. SSVEP. Digital controller. Ziegler-Nichols. / Sistemas baseados em Neurofeedback tem grande atuação nos tratamentos psicológicos e de reabilitação, corrigindo distúrbios no funcionamento cerebral, estimulando e desenvolvendo as habilidades dos indivíduos que os utilizam. Para tornar esses sistemas mais rápidos e precisos, controladores digitais, tais como os do tipo PID, contribuem para melhores respostas aos estímulos usados ao longo dos tratamentos, sendo os parâmetros dos controladores de grande influência para o sucesso do método. Este trabalho busca automatizar os cálculos dos parâmetros e analisar suas respostas a uma entrada de degrau unitário para os quatro tipos de controladores digitais mais utilizados (proporcional, proporcional-derivativo, proporcional-integrativo e proporcional-integral-derivativo) para controle de uma interface cérebro máquina com Neurofeedback utilizando Potencial Evocado Visual de Regime Permanente (SSVEP). Os cálculos destes parâmetros foram realizados considerando o método da Curva de Reação das Regras de Ziegler-Nichols, determinando e analisando as funções de transferência destes sistemas. Desta forma, é possível decompor os dados da Razão Sinal-Ruído (SNR) obtidos a partir de uma touca para Eletroencefalograma que utiliza 34 canais em onze indivíduos sadios. Como resultado, este trabalho conclui que, para as amostras estudadas, o controlador do tipo PID e as otimizações dos parâmetros deste controlador contribuem fortemente para que o sistema SSVEP seja robusto, podendo propiciar resultados clínicos bastante satisfatórios. Palavras-chave: Neurofeedback. Neurociência computacional. Occipital. EEG. SNR. SSVEP. Controlador digital. Ziegler-Nichols.
77

Computing Subfields

Szutkoski, Jonas January 2017 (has links)
Neste trabalho, consideramos o problema de calcular o reticulado de subcorpos de uma extensão separável e de grau nito k( )/k. Isto e, queremos encontrar todos os corpos L tais que k L k( ). Até recentemente, o algoritmo utilizado pela maioria dos Sistemas Algébricos Computacionais baseava-se em um problema combinatorial nas raízes do polinômio minimal f de sobre k. Em 2013, um algoritmo foi apresentado para encontrar tais subcorpos. Este método calcula um pequeno conjunto de subcorpos, chamados de subcorpos principais, com a propriedade de que todo subcorpo de k( )/k e a interseção de alguns destes subcorpos. Assim, calcular o reticulado de subcorpos e dividido em duas etapas: 1) Encontrar os subcorpos principais de k( )/k e 2) Calcular todas as interseções destes subcorpos. A primeira etapa pode ser feita em tempo polinomial. Entretanto, a segunda etapa não pode e assim, domina a complexidade do algoritmo. Nosso objetivo e melhorar a segunda etapa, tanto em teoria quanto na prática. Para isso, mostramos como rapidamente calcular todas as interseções entre os subcorpos principais. Embora a complexidade continue não sendo limitada polinomialmente (e também não poderia ser, pois o número total de subcorpos não o é), conseguimos melhorar a complexidade do algoritmo. Também notamos um melhoramento na prática, principalmente quando o número de subcorpos e grande. Além disso, estudamos dois casos especiais: corpos numéricos e o corpo das funções racionais. Para corpos numéricos (i.e., quando k = Q), também apresentamos um melhoramento para a primeira etapa. No segundo caso, os subcorpos da extensão k(t)=k(f(t)), definida por f(t) 2 k(t), nos fornecem decomposições da função racional f(t). Nosso algoritmo tem uma performance melhor que algoritmos anteriores para calcular as decomposições de funções racionais. / In this work, we consider the problem of computing the sub eld lattice of a separable and nite degree eld extension k( )/k. That is, we wish to nd all elds L such that k L k( ). Until recently, the algorithm used by most Computer Algebraic Systems relied on a combinatorial problem on the roots of the minimal polynomial f of over k, which can be a computationally expensive task. In 2013, another algorithm was presented to nd the sub eld lattice of k( )/k. This method computes a small set of sub elds, called principal sub elds, with the property that any other sub eld of k( )/k is the intersection of some of these principal sub elds. Thus, the problem of computing the sub eld lattice can be split into 2 steps: 1) Find the principal sub elds of k( )/k and 2) Compute all intersections of these sub elds. The rst step can be executed in polynomial time however, the second step can not and thus, dominates the algorithm complexity.Our main goal is to improve the second step, both theoretically and practically. More speci cally, we develop a method to quickly compute all intersections of principal sub elds. While the complexity is still not polynomially bounded (in fact, it can not be for the total number of sub elds is not polynomially bounded), this new method helps to improve the non-polynomial part of the complexity. Practical performance is also improved when the number of intersections is large. We also focus on two special cases: number elds and rational function elds. For the number eld case (i.e., when k = Q), we also present an improvement for the rst step. For the rational function eld case, computing the sub eld lattice of the extension K(t)=K(f(t)) de ned by f(t) 2 K(t) yields all decompositions of the rational function f(t). Our algorithm outperforms previous algorithms for computing rational function decompositions.
78

Estudo da Fluidodinâmica de Separadores Ciclônicos no Interior de Poços Petrolíferos através da Técnica de CFD

SEGANTINE, E. J. 30 March 2017 (has links)
Made available in DSpace on 2018-08-01T23:29:07Z (GMT). No. of bitstreams: 1 tese_10854_51 - Edson de Jesus Segantine.pdf: 7213913 bytes, checksum: c8c9a5e5271aa2ecaf88597158fd7cf1 (MD5) Previous issue date: 2017-03-30 / O controle da produção de areia em poços de petróleo e gás tem sido um assunto de grande interesse da indústria do petróleo. A produção de areia tem relação direta com o aumento dos custos de produção destacando-se problemas como o desgaste prematuro de equipamentos, aumento considerável no número de operações de intervenção e principalmente a falta de sondas para as operações de intervenção. Neste contexto, o presente trabalho buscou simular a eficiência de separação em 32 geometrias de separadores tubo-ciclônicos no processo de separação de areia produzida em poços de petróleo. Inicialmente, realizou-se a simulação para o separador tubo-ciclônico de duas hélices cujos dados experimentais estão disponíveis na literatura. Logo após, foram construídas diferentes geometrias deste tipo de separador variando os principais parâmetros geométricos por meio do planejamento fatorial fracionário de dois níveis com o intuito de realizar uma triagem dos fatores que mais relevantes. Contudo, os resultados dos testes de validação não mostram resultados satisfatórios para os parâmetros de injeção de partículas utilizados. Desta forma, foram conduzidas análises do escoamento do fluido para as diferentes geometrias de separadores e aplicação do método para a velocidade tangencial e queda de pressão. De acordo com os resultados, verificou-se que para os cinco fatores geométricos analisados o diâmetro do tubo externo do separador, o número de hélices e o comprimento do vortex finder são os mais significativos. Os fatores que mais influenciaram na queda de pressão foram o diâmetro externo, a vazão de entrada e o número de hélices, sendo mais pronunciada em escoamentos viscosos. Por fim, um modelo baseado no ajuste linear das simulações foi proposto para a queda de pressão em função dos oito parâmetros analisados e das principais interações entre dois fatores. Dentre os resultados, observou-se um aumento de 110% na queda de pressão para um aumento na vazão de entrada de 60 m3/dia para 116 m3/dia.
79

Investigação da estrutura de C-dots por simulações de dinâmica molecular

Froelich, Deise Beatriz January 2018 (has links)
Carbon-dots (C-dots, pontos de carbono) ou Carbon Quantum Dots (CQDs, pontos quânticos de carbono) consistem em uma interessante classe de nanopartículas de carbono, que vêm recebendo grande atenção devido à sua combinação de propriedades como luminescência, excelente biocompatibilidade e dispersabilidade em água. C-dots são nanopartículas quase esféricas, formados por fragmentos de grafeno empilhados, com diâmetros entre 1 à 10 nm, contendo grupos funcionais na superfície. Embora exista um significativo número de estudos experimentais na literatura, ainda há uma ampla discussão sobre os detalhes estruturais destas nanopartículas e seus efeitos nas propriedades óticas apresentadas. Neste trabalho, utilizamos simulações de dinâmica molecular para explorar detalhes da estrutura atômica dos C-dots, propondo estruturas que apresentem características estruturais, morfológicas e de composição conforme observados em experimentos. Para tanto, criamos inicialmente modelos dessas nanopartículas baseados no empilhamento de fragmentos de grafeno funcionalizados nas bordas. Observou-se que após a relaxação estrutural, os fragmentos foram reorientados, levando a um alinhamento turbostrático entre camadas, com espaçamento próximo aos característicos do grafite Em seguida, calculamos a energia de adesão das camadas dos C-dots, para avaliar a estabilidade desses aglomerados, e os resultados mostram que a presença de grupos funcionais oxigenados contribui para uma melhor adesão entre as camadas. Ainda, criamos modelos semelhantes para essas nanopartículas, incluindo átomos próximos as bordas dos nanoflakes utilizando um método hibrido de MC/MD e os resultados mostram reconstrução da superfície devido a formação espontânea de ligações covalentes nas bordas com a presença de pentágonos, hexágonos e defeitos. Usamos também simulações de dinâmica molecular reativa para analisar a formação destas partículas, partindo de fragmentos resultantes da quebra de moléculas orgânicas, conforme observado experimentalmente. Estas simulações mostraram que a estrutura dos C-dots pode ser um pouco mais complexa do que as atualmente propostas, contendo outros tipos de interação entre os nanoflakes de grafeno, que podem afetar significativamente as propriedades do material. / Carbon-dots (C-dots) or Carbon Quantum Dots consist of an interesting class of carbon nanoparticles, which have received great attention due to their combination of properties such as luminescence, excellent biocompatibility and dispersibility in water. C-dots are almost spherical nanoparticles, formed by stacked graphene fragments, with diameters between 1 and 10 nm, containing functional groups on the surface. Although there is a significant number of experimental studies in the literature, there is still a wide discussion about the structural details of these nanoparticles and their effects on the presented optical properties. In this work, we use molecular dynamics simulations to explore details of the atomic structure of C-dots, which are proposed on basis of experimental characterization data available from the literature. We initially created models of these nanoparticles based on the stacking of functionalized graphene fragments at the edges. It was observed that after the structural relaxation, the fragments were reoriented, leading to a turbostratic alignment between layers, with spacing close to the characteristics of the graphite Then, we calculate the adhesion energy of the C-dots layers, to evaluate the stability of these clusters, and the results show that the presence of oxygenated functional groups contributes to a better adhesion between the layers. Furthermore, we have created similar models for these nanoparticles, including atoms near the edges of nanoflakes using a hybrid MC / MD method and the results show the spontaneous surface reconstruction due to the formation of covalent bonds at the edge with the presence of pentagons, hexagons and defects. We also used simulations of reactive molecular dynamics to analyze the initial steps for the formation of these particles, starting from fragments resulting from the breakdown of organic molecules, as observed experimentally. These simulations have shown that the structure of the C-dots may be what more complex than those currently proposed, containing other types of interaction between the graphene fragments, which can significantly affect the properties of the material.
80

Simulação da dispersão de poluentes atmosféricos da refinaria da Galp do Porto

Figueiredo, Diogo de Freitas January 2008 (has links)
No description available.

Page generated in 0.0819 seconds