• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 802
  • 474
  • 212
  • 148
  • 88
  • 77
  • 70
  • 23
  • 16
  • 15
  • 13
  • 13
  • 13
  • 13
  • 13
  • Tagged with
  • 2243
  • 2243
  • 969
  • 659
  • 645
  • 442
  • 432
  • 409
  • 357
  • 335
  • 329
  • 328
  • 323
  • 317
  • 317
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
401

Nanowindow: Measuring Window Performance and Energy Production of a Nanofluid Filled Window

Issertes-Carbonnier, Eric-Valentin 27 September 2017 (has links)
Windows reduce heat loss and heat gain by resisting conduction, convection, and radiation using thermal breaks, low-emissivity films, and window gaps. Contrary to advancing these resistive qualities, this research introduced a highly conductive gap medium using Al2O3 nanoparticles dispersed in deionized water to enhance thermal conductivity. The solution harnessed the photothermal properties of Al2O3 nanofluids to trap, store, and transport thermally charged fluids to heat exchangers to preheat air and water, and to generate electricity forming a transparent generator—the Nanowindow. Seven Nanowindow prototypes with varying orders of air and fluid columns were fabricated and tested using distilled water (H2Owindows) to establish a baseline of performance. A solar simulator was built to avoid environmental radiant flux irregularities providing a uniform test condition averaging 750–850 W/m2, and resulted in an undefined spectral match, Class B spatial uniformity, and Class B temporal stability. All Nanowindows were tested in a calibrated hot box determined to have a ±4% degree of accuracy based on four laboratory samples establishing a framework to conduct U-factor and solar heat gain coefficient (SHGC) measurements. Four heat exchange experiments and standardized window performance metrics (U-factor, SHGC, and visible transmission) where conducted on seven H2Owindows. The top two H2Owindows were then tested using Al2O3 nanofluids. The highest performing Nanowindow improved total convective heat transfer rates using Al2O3 by 90% over water baseline, and 61% improvement in preheat water experiments. Nanowindows coupled with thermoelectric generators generated a rated voltage of 0.31VDC/0.075ADC per 12in2 Nanowindow, an improvement of 38% over baseline. Standardized window performance metrics confirmed Nanowindow U-factors ranging from 0.23 to 0.54, SHGC from 0.43 to 0.67, and visible transmittance coefficient (VT) ranging from 0.27 to 0.38. The concept of nature as model system thinking provided a theoretical framework for the research and proof of concept experiment. Ultimately, the experiment shifted window gaps from resisting energy to harnessing solar energy. The Nanowindow thus presents a unique opportunity to turn vast glass facades into transparent generators to offset energy demand, and reduce greenhouse gases.
402

Material and process characterisation of PolyEtherKetone for EOSINT P800 high temperature laser sintering

Trimble, Rachel Jane January 2017 (has links)
Laser Sintering (LS) is a powder based Additive Manufacturing (AM) technology capable of producing near-net shape objects from 3D data. The benefits of LS include almost unlimited design freedom and reduced material waste, however the number of commercially available materials are limited, with materials traditionally being optimised for the process using a trial and error method and material development being led by previous research into polyamide (PA). There is a desire for greater material choice in LS, particularly high performance polymers. The EOSINT P800 by AM systems manufacturer EOS GmbH is the first commercially available high temperature laser sintering (HT-LS) system capable of working high performance polymers; a PolyEtherKetone (PEK) known by the trade name HP3 PEK is the first material offered by EOS for use with the system. This research project undertakes to characterise the EOSINT P800 and HP3 PEK material with different thermal histories. Experimental work focusses on establishing material properties such as size and shape, crystallinity and decomposition. Characterisation of coalescence behaviour and comparison with theoretical models for viscous sintering is presented as a less experimentally intensive method of understanding how a material will behave during the LS process. A map of temperatures inside the powder bed in the EOSINT P800 is created for the first time and compared with output from on-board temperature sensors in the system, demonstrating the thermal distribution within the bed during building, and explaining differences between as-received and used powder. The results demonstrate that material and process characterisation methods are useful for understanding how and why a high temperature laser sintering material behaves the way it does. The behaviour of HP3 PEK observed during experimental work indicates that guidelines based on LS of PA are too restrictive as indicators of suitability for LS and newer systematic approaches are potentially better suited for qualification of HT-LS polymers. The novel method for mapping thermal distribution inside the LS system documented here shows the limitations of current hardware to effectively process high performance polymers. Overall, the finding of this research project is that understanding of material and process cannot be considered in isolation but combined have the potential to reduce the amount of trial and error required during qualification of new materials and increase the range and variety of polymers available for LS and HT-LS.
403

As conseqüências de culturas de alto desempenho para os profissionais de organizações do segmento químico e farmacêutico

Bayma, Lígia Helena Fürbringer 18 May 2011 (has links)
Made available in DSpace on 2016-04-25T20:20:13Z (GMT). No. of bitstreams: 1 Ligia Helena Furbringer Bayma.pdf: 424359 bytes, checksum: 16b586cc6c7319e538146e84382ae327 (MD5) Previous issue date: 2011-05-18 / The dissertation is about the Consequences of High performance targets for the company workers (employees), in companies that has it as basic premises, that let those premises very clear for anyone, through their attitudes, through their speeches, values and which are exposed everywhere, to be reached to every single person inside the company. These high performance values are also formal and frequently disseminated to all employees. To explain this subject, high performance culture, we will use as focal point for exemples, the pharmaceutical industry as well as employees interviewed to build a sample, which objectives are: To analyze the consequences of such high performance exigencies to employees in companies that has high performance aim, as overuse of pressure and its consequences for people; in their behavior , attitudes, analyzing the permissive behavior to achieve high performance results, where everything becomes possible and valid; and finally, how these consequences are seen (if loss of quality of life or an illness) and dealed as an individual limit and not a result of overuse of work limits, work processes. To conclude, we will be able to realize that as much as we still having a matrix that has this aims and therefore stimulates this kind of behavior for extreamly high results, we will still have these over stimulation for workers in the present time and also for the future generation, because this is part of the culture. The proposal of this research is to help companies to check and to begin to analyze high performance measures, that can be stablished to minimize such high performance impacts to the workers, and that through people they still can have high organizational results with better quality of life for the employees, and better than that, they will be able to develop healthy companies, which are made basically by people / A dissertação aqui apresentada trata das consequências das culturas de alto desempenho ou performance para as pessoas que estão dentro das organizações onde essas culturas são utilizadas como premissa básica. Essas organizações exprimem seu desejo de alto desempenho, por meio de suas atitudes, discursos presentes na descrição de seus valores, divulgados amplamente em todos os espaços de ampla circulação e de fácil visualização. Esses valores são ainda divulgados formalmente e com frequência a todos os seus funcionários. Para tratar desse assunto, teremos como ponto focal e como exemplo dessa cultura a indústria farmacêutica, assim como os respondentes de uma amostra qualitativa sistemática, que são os profissionais que nela trabalham ou trabalharam. Com isso, temos por objetivo: Analisar as consequências das exigências da cultura de alto desempenho para os profissionais que trabalham em organizações que as explicitam, evidenciando a pressão sofrida pelos indivíduos trabalhadores; o desconforto gerado por essa pressão; os comportamentos e atitudes de alto desempenho, fundamentados na permissividade na busca de resultados. Analisar também o modo como as consequências geradas para os indivíduos são tratadas: como limites individuais e não como um resultado do processo de trabalho. Concluiremos que, enquanto houver a gestão matriz incentivando a continuidade desses hábitos, eles continuarão presentes nas futuras gerações, e isso está inserido na cultura vigente. A proposta desta pesquisa é auxiliar as corporações com relação às medidas que podem ser tomadas para minimizar esses impactos na condução de seus profissionais. Tem-se também o intuito de que as organizações se tornem mais saudáveis, proporcionando aos seus funcionários melhor qualidade de vida e, consequentemente, de trabalho
404

As conseqüências de culturas de alto desempenho para os profissionais de organizações do segmento químico e farmacêutico

Bayma, Lígia Helena Fürbringer 18 May 2011 (has links)
Made available in DSpace on 2016-04-26T14:53:02Z (GMT). No. of bitstreams: 1 Ligia Helena Furbringer Bayma.pdf: 424359 bytes, checksum: 16b586cc6c7319e538146e84382ae327 (MD5) Previous issue date: 2011-05-18 / The dissertation is about the Consequences of High performance targets for the company workers (employees), in companies that has it as basic premises, that let those premises very clear for anyone, through their attitudes, through their speeches, values and which are exposed everywhere, to be reached to every single person inside the company. These high performance values are also formal and frequently disseminated to all employees. To explain this subject, high performance culture, we will use as focal point for exemples, the pharmaceutical industry as well as employees interviewed to build a sample, which objectives are: To analyze the consequences of such high performance exigencies to employees in companies that has high performance aim, as overuse of pressure and its consequences for people; in their behavior , attitudes, analyzing the permissive behavior to achieve high performance results, where everything becomes possible and valid; and finally, how these consequences are seen (if loss of quality of life or an illness) and dealed as an individual limit and not a result of overuse of work limits, work processes. To conclude, we will be able to realize that as much as we still having a matrix that has this aims and therefore stimulates this kind of behavior for extreamly high results, we will still have these over stimulation for workers in the present time and also for the future generation, because this is part of the culture. The proposal of this research is to help companies to check and to begin to analyze high performance measures, that can be stablished to minimize such high performance impacts to the workers, and that through people they still can have high organizational results with better quality of life for the employees, and better than that, they will be able to develop healthy companies, which are made basically by people / A dissertação aqui apresentada trata das consequências das culturas de alto desempenho ou performance para as pessoas que estão dentro das organizações onde essas culturas são utilizadas como premissa básica. Essas organizações exprimem seu desejo de alto desempenho, por meio de suas atitudes, discursos presentes na descrição de seus valores, divulgados amplamente em todos os espaços de ampla circulação e de fácil visualização. Esses valores são ainda divulgados formalmente e com frequência a todos os seus funcionários. Para tratar desse assunto, teremos como ponto focal e como exemplo dessa cultura a indústria farmacêutica, assim como os respondentes de uma amostra qualitativa sistemática, que são os profissionais que nela trabalham ou trabalharam. Com isso, temos por objetivo: Analisar as consequências das exigências da cultura de alto desempenho para os profissionais que trabalham em organizações que as explicitam, evidenciando a pressão sofrida pelos indivíduos trabalhadores; o desconforto gerado por essa pressão; os comportamentos e atitudes de alto desempenho, fundamentados na permissividade na busca de resultados. Analisar também o modo como as consequências geradas para os indivíduos são tratadas: como limites individuais e não como um resultado do processo de trabalho. Concluiremos que, enquanto houver a gestão matriz incentivando a continuidade desses hábitos, eles continuarão presentes nas futuras gerações, e isso está inserido na cultura vigente. A proposta desta pesquisa é auxiliar as corporações com relação às medidas que podem ser tomadas para minimizar esses impactos na condução de seus profissionais. Tem-se também o intuito de que as organizações se tornem mais saudáveis, proporcionando aos seus funcionários melhor qualidade de vida e, consequentemente, de trabalho
405

Analise dos efeitos de falhas transientes no conjunto de banco de registradores em unidades gráficas de processamento / Evaluation of transient fault effect in the register files of graphics processing units

Nedel, Werner Mauricio January 2015 (has links)
Unidades gráficas de processamento, mais conhecidas como GPUs (Graphics Processing Unit), são dispositivos que possuem um grande poder de processamento paralelo com respectivo baixo custo de operação. Sua capacidade de simultaneamente manipular grandes blocos de memória a credencia a ser utilizada nas mais variadas aplicações, tais como processamento de imagens, controle de tráfego aéreo, pesquisas acadêmicas, dentre outras. O termo GPGPUs (General Purpose Graphic Processing Unit) designa o uso de GPUs utilizadas na computação de aplicações de uso geral. A rápida proliferação das GPUs com ao advento de um modelo de programação amigável ao usuário fez programadores utilizarem essa tecnologia em aplicações onde confiabilidade é um requisito crítico, como aplicações espaciais, automotivas e médicas. O crescente uso de GPUs nestas aplicações faz com que novas arquiteturas deste dispositivo sejam propostas a fim de explorar seu alto poder computacional. A arquitetura FlexGrip (FLEXible GRaphIcs Processor) é um exemplo de GPGPU implementada em FPGA (Field Programmable Gate Array), sendo compatível com programas implementados especificamente para GPUs, com a vantagem de possibilitar a customização da arquitetura de acordo com a necessidade do usuário. O constante aumento da demanda por tecnologia fez com que GPUs de última geração sejam fabricadas em tecnologias com processo de fabricação de até 28nm, com frequência de relógio de até 1GHz. Esse aumento da frequência de relógio e densidade de transistores, combinados com a redução da tensão de operação, faz com que os transistores fiquem mais suscetíveis a falhas causadas por interferência de radiação. O modelo de programação utilizado pelas GPUs faz uso de constantes acessos a memórias e registradores, tornando estes dispositivos sensíveis a perturbações transientes em seus valores armazenados. Estas perturbações são denominadas Single Event Upset (SEU), ou bit-flip, e podem resultar em erros no resultado final da aplicação. Este trabalho tem por objetivo apresentar um modelo de injeção de falhas transientes do tipo SEU nos principais bancos de registradores da GPGPU Flexgrip, avaliando o comportamento da execução de diferentes algoritmos em presença de SEUs. O impacto de diferentes distribuições de recursos computacionais da GPU em sua confiabilidade também é abordado. Resultados podem indicar maneiras eficientes de obter-se confiabilidade explorando diferentes configurações de GPUs. / Graphic Process Units (GPUs) are specialized massively parallel units that are widely used due to their high computing processing capability with respective lower costs. The ability to rapidly manipulate high amounts of memory simultaneously makes them suitable for solving computer-intensive problems, such as analysis of air traffic control, academic researches, image processing and others. General-Purpose Graphic Processing Units (GPGPUs) designates the use of GPUs in applications commonly handled by Central Processing Units (CPUs). The rapid proliferation of GPUs due to the advent of significant programming support has brought programmers to use such devices in safety critical applications, like automotive, space and medical. This crescent use of GPUs pushed developers to explore its parallel architecture and proposing new implementations of such devices. The FLEXible GRaphics Processor (FlexGrip) is an example of GPGPU optimized for Field Programmable Arrays (FPGAs) implementation, fully compatible with GPU’s compiled programs. The increasing demand for computational has pushed GPUs to be built in cuttingedge technology down to 28nm fabrication process for the latest NVIDIA devices with operating clock frequencies up to 1GHz. The increases in operating frequencies and transistor density combined with the reduction of voltage supplies have made transistors more susceptible to faults caused by radiation. The program model adopted by GPUs makes constant accesses to its memories and registers, making this device sensible to transient perturbations in its stored values. These perturbations are called Single Event Upset (SEU), or just bit-flip, and might cause the system to experience an error. The main goal of this work is to study the behavior of the GPGPU FlexGrip under the presence of SEUs in a range of applications. The distribution of computational resources of the GPUs and its impact in the GPU confiability is also explored, as well as the characterization of the errors observed in the fault injection campaigns. Results can indicate efficient configurations of GPUs in order to avoid perturbations in the system under the presence of SEUs.
406

High performance trace replay event simulation of parallel programs behavior / Ferramenta de alto desempenho para análise de comportamento de programas paralelos baseada em rastos de execução

Korndorfer, Jonas Henrique Muller January 2016 (has links)
Sistemas modernos de alto desempenho compreendem milhares a milhões de unidades de processamento. O desenvolvimento de uma aplicação paralela escalável para tais sistemas depende de um mapeamento preciso da utilização recursos disponíveis. A identificação de recursos não utilizados e os gargalos de processamento requere uma boa análise desempenho. A observação de rastros de execução é uma das técnicas mais úteis para esse fim. Infelizmente, o rastreamento muitas vezes produz grandes arquivos de rastro, atingindo facilmente gigabytes de dados brutos. Portanto ferramentas para análise de desempenho baseadas em rastros precisam processar esses dados para uma forma legível e serem eficientes a fim de permitirem uma análise rápida e útil. A maioria das ferramentas existentes, tais como Vampir, Scalasca e TAU, focam no processamento de formatos de rastro com semântica associada, geralmente definidos para lidar com programas desenvolvidos com bibliotecas populares como OpenMP, MPI e CUDA. No entanto, nem todas aplicações paralelas utilizam essas bibliotecas e assim, algumas vezes, essas ferramentas podem não ser úteis. Felizmente existem outras ferramentas que apresentam uma abordagem mais dinâmica, utilizando um formato de arquivo de rastro aberto e sem semântica específica. Algumas dessas ferramentas são Paraver, Pajé e PajeNG. Por outro lado, ser genérico tem custo e assim tais ferramentas frequentemente apresentam baixo desempenho para o processamento de grandes rastros. O objetivo deste trabalho é apresentar otimizações feitas para o conjunto de ferramentas PajeNG. São apresentados o desenvolvimento de um estratégia de paralelização para o PajeNG e uma análise de desempenho para demonstrar nossos ganhos. O PajeNG original funciona sequencialmente, processando um único arquivo de rastro que contém todos os dados do programa rastreado. Desta forma, a escalabilidade da ferramenta fica muito limitada pela leitura dos dados. Nossa estratégia divide o arquivo em pedaços permitindo seu processamento em paralelo. O método desenvolvido para separar os rastros permite que cada pedaço execute em um fluxo de execução separado. Nossos experimentos foram executados em máquinas com acesso não uniforme à memória (NUMA).Aanálise de desempenho desenvolvida considera vários aspectos como localidade das threads, o número de fluxos, tipo de disco e também comparações entre os nós NUMA. Os resultados obtidos são muito promissores, escalando o PajeNG cerca de oito a onze vezes, dependendo da máquina. / Modern high performance systems comprise thousands to millions of processing units. The development of a scalable parallel application for such systems depends on an accurate mapping of application processes on top of available resources. The identification of unused resources and potential processing bottlenecks requires good performance analysis. The trace-based observation of a parallel program execution is one of the most helpful techniques for such purpose. Unfortunately, tracing often produces large trace files, easily reaching the order of gigabytes of raw data. Therefore tracebased performance analysis tools have to process such data to a human readable way and also should be efficient to allow an useful analysis. Most of the existing tools such as Vampir, Scalasca, TAU have focus on the processing of trace formats with a fixed and well-defined semantic. The corresponding file format are usually proposed to handle applications developed using popular libraries like OpenMP, MPI, and CUDA. However, not all parallel applications use such libraries and so, sometimes, these tools cannot be useful. Fortunately, there are other tools that present a more dynamic approach by using an open trace file format without specific semantic. Some of these tools are the Paraver, Pajé and PajeNG. However the fact of being generic comes with a cost. These tools very frequently present low performance for the processing of large traces. The objective of this work is to present performance optimizations made in the PajeNG tool-set. This comprises the development of a parallelization strategy and a performance analysis to set our gains. The original PajeNG works sequentially by processing a single trace file with all data from the observed application. This way, the scalability of the tool is very limited by the reading of the trace file. Our strategy splits such file to process several pieces in parallel. The created method to split the traces allows the processing of each piece in each thread. The experiments were executed in non-uniform memory access (NUMA) machines. The performance analysis considers several aspects like threads locality, number of flows, disk type and also comparisons between the NUMA nodes. The obtained results are very promising, scaling up the PajeNG about eight to eleven times depending on the machine.
407

Técnicas de agrupamento de dados para computação aproximativa

Malfatti, Guilherme Meneguzzi January 2017 (has links)
Dois dos principais fatores do aumento da performance em aplicações single-thread – frequência de operação e exploração do paralelismo no nível das instruções – tiveram pouco avanço nos últimos anos devido a restrições de potência. Neste contexto, considerando a natureza tolerante a imprecisões (i.e.: suas saídas podem conter um nível aceitável de ruído sem comprometer o resultado final) de muitas aplicações atuais, como processamento de imagens e aprendizado de máquina, a computação aproximativa torna-se uma abordagem atrativa. Esta técnica baseia-se em computar valores aproximados ao invés de precisos que, por sua vez, pode aumentar o desempenho e reduzir o consumo energético ao custo de qualidade. No atual estado da arte, a forma mais comum de exploração da técnica é através de redes neurais (mais especificamente, o modelo Multilayer Perceptron), devido à capacidade destas estruturas de aprender funções arbitrárias e aproximá-las. Tais redes são geralmente implementadas em um hardware dedicado, chamado acelerador neural. Contudo, essa execução exige uma grande quantidade de área em chip e geralmente não oferece melhorias suficientes que justifiquem este espaço adicional. Este trabalho tem por objetivo propor um novo mecanismo para fazer computação aproximativa, baseado em reúso aproximativo de funções e trechos de código. Esta técnica agrupa automaticamente entradas e saídas de dados por similaridade, armazena-os em uma tabela em memória controlada via software. A partir disto, os valores quantizados podem ser reutilizados através de uma busca a essa tabela, onde será selecionada a saída mais apropriada e desta forma a execução do trecho de código será substituído. A aplicação desta técnica é bastante eficaz, sendo capaz de alcançar uma redução, em média, de 97.1% em Energy-Delay-Product (EDP) quando comparado a aceleradores neurais. / Two of the major drivers of increased performance in single-thread applications - increase in operation frequency and exploitation of instruction-level parallelism - have had little advances in the last years due to power constraints. In this context, considering the intrinsic imprecision-tolerance (i.e., outputs may present an acceptable level of noise without compromising the result) of many modern applications, such as image processing and machine learning, approximate computation becomes a promising approach. This technique is based on computing approximate instead of accurate results, which can increase performance and reduce energy consumption at the cost of quality. In the current state of the art, the most common way of exploiting the technique is through neural networks (more specifically, the Multilayer Perceptron model), due to the ability of these structures to learn arbitrary functions and to approximate them. Such networks are usually implemented in a dedicated neural accelerator. However, this implementation requires a large amount of chip area and usually does not offer enough improvements to justify this additional cost. The goal of this work is to propose a new mechanism to address approximate computation, based on approximate reuse of functions and code fragments. This technique automatically groups input and output data by similarity and stores this information in a sofware-controlled memory. Based on these data, the quantized values can be reused through a search to this table, in which the most appropriate output will be selected and, therefore, execution of the original code will be replaced. Applying this technique is effective, achieving an average 97.1% reduction in Energy-Delay-Product (EDP) when compared to neural accelerators.
408

Análise de impurezas orgânicas no cloridrato de besifloxacino por cromatografia líquida de alta eficiência com eluição isocrática e gradiente

Manoel, Joanna Wittckind January 2016 (has links)
A análise de impurezas é uma etapa importante no controle de qualidade do insumo farmacêutico e do produto final. Provenientes da síntese do medicamento ou dos excipientes, mesmo em pequenas concentrações, as impurezas podem afetar a eficácia e a segurança. No presente trabalho foram desenvolvidos e validados dois métodos empregando cromatografia líquida de alta eficiência (CLAE) para a avaliação do besifloxacino e sua impureza de síntese, um com eluição isocrática e outro com eluição gradiente. As análises por CLAE com modo de eluição isocrática foram executadas utilizando coluna Ciano, mantida a 25 °C. A fase móvel foi constituída por 0,5% de trietilamina (pH 3,0) : acetonitrila (88:12 v/v), eluída na vazão de 1,0 mL/min com detecção a 330 nm. O método com eluição gradiente foi conduzido com a mesma coluna e componentes da fase móvel modificando apenas as proporções entre fase orgânica e aquosa durante as análises. Os procedimentos foram validados de acordo com guias aceitos internacionalmente, observando-se resultados dentro dos limites aceitáveis. Os métodos apresentaram-se lineares na faixa de 140 a 260 μg/mL para o besifloxacino e de 0,3 a 2,3 μg/mL para a impureza A. Com volume de injeção de 20 μL, os limites de detecção e quantificação foram, respectivamente, 0,07 e 0,3 μg/mL. A precisão foi alcançada para todas as análises realizadas, obtendo DPR inter-dia igual a 6,47 e 6,36 para a impureza A com eluição isocrática e gradiente, respectivamente. A exatidão foi superior a 99% e a robustez apresentou resultados satisfatórios. No método isocrático obteve-se tempo de análise de 25 min e no gradiente de 15 min. O número de pratos teóricos no modo isocrático foi na ordem de 5000 enquanto no modo gradiente foi na ordem de 45000, ou seja, obteve-se maior eficiência da coluna com alteração da composição da fase móvel durante a eluição. No insumo besifloxacino e no produto farmacêutico utilizados neste trabalho, impurezas relacionadas estavam presentes, mas a impureza A não foi detectada. Os métodos propostos, considerando-se o limite de quantificação, podem ser aplicados na determinação quantitativa da impureza A na análise da matéria prima do besifloxacino, assim como na suspensão oftálmica. / Analysis of impurities is an important step in quality control of pharmaceutical ingredients and final products. From drug synthesis or excipients, even in small concentrations, impurities may affect efficacy and safety. In the present study two chromatographic methods were developed and validated for high-performance liquid chromatography (HPLC) for the assessment of besifloxacin and its synthesis impurity, one with isocratic and another with gradient elution. Analyses by HPLC in isocratic elution mode were performed using Cyano column maintained at 25 °C. Mobile phase was composed of 0.5% triethylamine (pH 3.0): acetonitrile (88:12 v/v) eluted at a flow rate of 1.0 ml/min with detection at 330 nm. The method with gradient elution was carried out with the same column and mobile phase components modifying only proportion between organic and aqueous phase during analysis. The procedures have been validated according to internationally accepted guidelines, obtaining results within acceptable limits. The methods presented a linear response from 140-260 μg/mL for besifloxacin and from 0.3 to 2.3 mg/mL for impurity. With the injection volume of 20 μL, the limit od detection and limit of quantitation were, respectively, 0.07 and 0.3 μg/mL. Precision was achieved for all analyses, obtaining inter-day RSD equal to 6.47 and 6.36 for impurity A with isocratic and gradient elution, respectively. The accuracy was higher than 99% and robustness exhibited satisfactory results. In the isocratic method was obtained analysis time 25 min and 15 min gradient. The number of theoretical plates in the isocratic mode was of the order of 5000 while in the gradient mode was of the order of 45000, that is, gave greater efficiency of the column by changing the mobile phase composition during elution. In raw material of besifloxacin and pharmaceutical product used in this study, related impurities were present but the impurity A was not detected. The proposed methods, considering the limit of quantitation, can be in quantitative determination of impurity A in the analysis of besifloxacin raw material, as well as in ophthalmic suspension.
409

Avaliação de estabilidade de derivação farmacêutica hospitalar de vigabatrina

Ayres, Márcio Vinícius January 2016 (has links)
A vigabatrina (VGB) é um fármaco anticonvulsivante que apresenta apenas a forma farmacêutica sólida disponível para uso. Na área hospitalar, devido à ausência de medicamentos na forma farmacêutica líquida, são preparadas derivações a partir de comprimidos e cápsulas para adequar a administração da dose prescrita. No entanto, a falta de estudos de estabilidade podem comprometer a eficácia e segurança destas derivações. O objetivo deste trabalho foi analisar a estabilidade química de derivações de comprimidos de vigabatrina em condições de armazenamento sob diferentes temperaturas e variações na embalagem utilizada. A análise das derivações de VGB foi realizada através de cromatografia líquida de alta eficiência (CLAE). O método descrito na Farmacopeia Britânica (2016) foi covalidado quanto a especificidade, linearidade, precisão e exatidão. Amostras de derivação de VGB foram preparadas em triplicata e acondicionadas em frascos de vidro e de PET âmbar. Após, foram armazenadas sob três diferentes condições de temperatura: temperatura ambiente (15 a 30 °C), sob refrigeração (2 a 8 °C) e em estufa (40 °C). Foram coletadas amostras armazenadas nas diferentes embalagens a cada 7 dias, por um período de 35 dias para as amostras conservadas em temperatura ambiente e refrigerada. O mesmo procedimento foi realizado para as amostras conservadas em estufa, porém por um período de 28 dias Também foi analisado o pH das amostras em cada tempo de coleta. As derivações de VGB foram analisadas por CLAE e apresentaram variação dentro dos limites preconizados pela Farmacopeia Britânica 2016, até 21 dias para frascos de vidro e de PET âmbar para as temperaturas ambiente e refrigerada. As amostras de VGB conservadas em estufa, apresentaram redução acima de 10% após 7 dias de estudo. A menor variação de pH ocorreu em frasco de vidro âmbar armazenado sob refrigeração. O resultado deste estudo serve de referência no preparo de derivações de VGB para uso hospitalar, pois apresentou intervalo de tempo confiável e condições de armazenamento adequadas para sua utilização. Desta forma, os pacientes pediátricos que utilizam doses fracionadas ou pacientes em uso de sondas nasogástricas terão as derivações adequadamente preparadas, reduzindo o risco de erros de diluição e contaminação microbiológica, melhorando a eficácia e segurança terapêutica. / Vigabatrin (VGB) is an anticonvulsant drug that has only solid dosage form available for use. In hospital, due to lack of medicines in liquid dosage form, extemporaneous preparations are prepared from tablets and capsules to adapt the administration of the prescribed dose. However, the lack of stability studies may compromise the efficacy and safety of these preparations. The aim of this study was to analyze the chemical stability of VGB extemporaneous preparation from tablets at storage conditions in different temperatures and variations of packaging used. The analysis of VGB extemporaneous preparations were performed by high-performance liquid chromatography (HPLC). The method described in British Pharmacopoeia (2016) was co-validated for specificity, linearity, precision and accuracy. VGB extemporaneous preparations were prepared in triplicate and placed in amber glass and PET bottles, which were stored under three different conditions: at room temperature (15 to 30 °C), under refrigeration (2 to 8 °C), and oven (40 °C). Samples of preparations stored at room temperature and refrigeration were collected every 7 days along 35 days. The same was done for solutions kept at 40 °C, but for a period of 28 days. It was also analyzed the preparations pH for each sampling time VGB extemporaneous preparations were analyzed by HPLC and demonstrated variations within the limits of British Pharmacopoeia (2016) up to 21 days in amber glass and PET bottles at room and refrigerated temperatures. VGB content for preparations kept in oven decreased above 10% after 7 days of study. The lowest pH change occurred in amber glass bottle stored under refrigeration. Results of this study can be applied as a reference for VGB extemporaneous preparation in hospital, once it was demonstrated the reliability of storage time interval and proper conditions for the use. Thus, pediatric patients with fractionated doses or patients using nasogastric probe will have adequately prepared extemporaneous preparations, reducing the risk of dilution errors and microbiological contamination.
410

Mass spectrometry analysis of protein/peptide S-palmitoylation

Ji, Yuhuan 08 April 2016 (has links)
The dynamic S-palmitoylation regulates many intracellular events, including protein trafficking, anchoring, targeting, and protein-protein interactions. Direct detection of S-palmitoylation by conventional liquid chromatography-mass spectrometry (LC-MS) methods is challenging because of the tendency of palmitoyl loss during sample preparation and gas phase fragmentation. Additionally, the high hydrophobicity of the palmitoyl group can prevent proper elution of palmitoyl peptides from the commonly used C18 column. Here, we developed a comprehensive strategy tailored for S-palmitoyl detection using three palmitoyl peptide standards. We found that S-palmitoylation was largely preserved in neutral Tris buffer with tris(2-carboxyethyl)phosphine as the reducing agent and that various fragmentation methods provided complementary information for palmitoyl localization. Moreover, S-palmitoyl peptides were efficiently analyzed using a C4 column and the derivatization of free cysteine with a hydrophobic tag allowed relative quantification of palmitoyl peptides and their unmodified counterparts. We further discovered potential complications to S-palmitoylation analysis caused by the use of ProteaseMAXTM, an MS-compatible detergent. The hydrophobic degradation products of ProteaseMAXTM reacted with the free cysteine thiols, generating artifacts that mimic S-acylation and hydroxyfarnesylation. Another MS-compatible detergent, RapiGestTM, did not produce such artifacts, and showed the ability to stabilize S-palmitoylation by preventing thioester hydrolysis and dithiothreitol-induced thioester cleavage. Moreover, we found that the palmitoyl peptide GCpalmLGNAK could undergo intermolecular palmitoyl migration from the cysteine to the peptide N-terminus or the lysine side chain during sample preparation, and this could lead to false discovery of N-palmitoylation. RapiGestTM inhibited such migration, and is thus recommended for S-palmitoyl sample preparation. We then applied the established method to analyze the regulator of G-protein signaling 4 (RGS4) which had been reported to undergo S-palmitoylation by radioactive labeling. It had also been reported that the S-palmitoylation state of RGS4 affects its GTPase activity. With LC-MS/MS analysis, we found that the addition of palmitate to the cell culture medium in metabolic labeling experiments could boost the level of S-palmitoylation, leading to false discovery of new S-palmitoylation site(s). We also noted discrepancies between the S-palmitoylation sites identified by radioactive labeling and by LC-MS/MS analysis. Further studies are needed to evaluate the reliability of S-palmitoyl detection by these two methods.

Page generated in 0.08 seconds