• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 116
  • 10
  • 8
  • 5
  • 1
  • 1
  • 1
  • Tagged with
  • 144
  • 54
  • 28
  • 25
  • 23
  • 22
  • 21
  • 19
  • 16
  • 16
  • 15
  • 15
  • 14
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Specialized models for the long-term transmission network expansion planning problem /

Escobar Vargas, Laura Mónica January 2018 (has links)
Orientador: Rubén Augusto Romero Lázaro / Resumo: A análise de sistemas altamente complexos quando e analizado o problema de planejamento de expansão de redes de transmissão de longo prazo, é o foco principal deste trabalho. Os modelos e metodos propostos são aplicados ao problema de planejamento estático tradicional, que é um problema de otimização matemática classificado como NP-completo, não-linear inteiro misto. O qual envolve no investimento, variáveis operacionais contínuas e variáveis inteiras. O comportamento normal de cada sistema pode conter informação essencial para a criação de novos métodos, como os planos de corte baseados em cortes de diferença de ângulos para problemas de grande escala, o que é a base é o ponto de partida deste trabalho, derivando em desigualdades válidas é ciclos críticos. Os cortes angulares básicos reduzem o espaço de busca do problema e o tempo total de cálculo deste problema, enquanto ao método de inequações válidas que pode ser usado para fornecer limites inferiores sólidos no investimento ótimo do planejamento de transmissão, já que a diferença entre o modelo DC (modelo exato) e o modelo de transporte (modelo mais relaxado) são as restrições angulares. Os ciclos críticos têm sido desenvolvidos para melhoraralguns dos modelos tradicionais do problemas de planejamento da expansão da rede de transmissão de longo prazo. A razão por trás disso é a ausência da segunda lei de Kirchhoff, que completa a representação do sistema, mas aumenta a complexidade. Para resolver os problemas resultantes... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The analysis of highly complex systems when solving the long-term transmission network expansion planning problem is the main focus of this work. The proposed improved models and methodology are applied to the traditionalstatic planning problem, which is a mathematical optimization problem classified as NP-complete and mixed-integer nonlinear problem. It involves continuousoperating variables and integer investment variables. The normal behavior of each system can be shown essential information to the creation of new methods, as the cutting-planes based in bus-angle difference cuts for large-scale problems which were the starting point of this work, deriving in valid inequalities and critic cycles. The angular cuts aim to reduce the search space of the problem and the total computation time of this NP-hard problem as for the valid inequalities methodthat can be used to provide strong lower bounds on the optimal investment of the transmissionplanning, since the difference between the DC model (exact model) and the transport model (more relaxed model) are the angular constraints. Critic cycles has been develop in order to improve some of the traditional long-term transmission network expansion planning problem models. The reason behind it is the absence of second Kirchhoff’s law which completes the representationof the system, but increase the complexity. In order to solve the resulting problems, this work uses the modeling language AMPL with the solver CPLEX. In test systems w... (Complete abstract click electronic access below) / Doutor
142

Os remédios, os livros e os tempos. Consumo de remédios e experiência do tempo entre o Lunário Perpétuo e o Diccionario do Dr. Chernoviz / Les remèdes, les livres et les temps. Consommation de remèdes et expérience du temps entre le Lunário Perpétuo et le Diccionnario du Dr. Chernoviz

Medeiros, Aline da Silva January 2015 (has links)
MEDEIROS, Aline da Silva. Os remédios, os livros e os tempos. Consumo de remédios e experiência do tempo entre o Lunário Perpétuo e o Diccionario do Dr. Chernoviz. 2015. 320f. – Tese (Doutorado) – Universidade Federal do Ceará, Programa de Pós-graduação em História Social, Fortaleza (CE), 2015. / Submitted by Márcia Araújo (marcia_m_bezerra@yahoo.com.br) on 2015-12-15T11:22:40Z No. of bitstreams: 1 2015_tese_asmedeiros.pdf: 6176371 bytes, checksum: 9ded548d8c7d5bc5a7dd6e2a5c6b9685 (MD5) / Approved for entry into archive by Márcia Araújo(marcia_m_bezerra@yahoo.com.br) on 2015-12-15T16:58:28Z (GMT) No. of bitstreams: 1 2015_tese_asmedeiros.pdf: 6176371 bytes, checksum: 9ded548d8c7d5bc5a7dd6e2a5c6b9685 (MD5) / Made available in DSpace on 2015-12-15T16:58:28Z (GMT). No. of bitstreams: 1 2015_tese_asmedeiros.pdf: 6176371 bytes, checksum: 9ded548d8c7d5bc5a7dd6e2a5c6b9685 (MD5) Previous issue date: 2015 / Esta tese se guiou pela seguinte pergunta: como se davam os consumos de remédios em relação com as experiências do tempo? Tomando como ponto de partida o estado do Ceará, interessava compreender como as práticas de saúde ocorriam ao longo dos séculos XIX e XX, pondo ênfase, a partir de movimentos do cotidiano, sobre suas espessuras temporais. Diante da natureza fragmentária das fontes coligidas (romances, memórias, anúncios, documentos oficiais), forjou-se uma estratégia metodológica: a consulta de livros de medicina autoinstrutivos. A leitura destes livros, sobretudo do Lunário Perpétuo, de Jerônimo Cortez, e do Diccionario de Medicina Popular, do Dr. Chernoviz, não apenas trouxe maiores elementos para a compreensão das lógicas de consumo, como também levou a uma ampliação semântica do conceito de remédio. A partir de então, a palavra remédio compreendia não essencialmente uma substância, mas uma multiplicidade de produtos, gestos e artefatos, entre os quais os próprios livros. Tratou-se de delinear algumas experiências do tempo manifestadas por essas práticas de remediar: a medicina humoral em suas associações com as rotas astrais; as relações entre saúde e salvação, pelos entrelaçamentos entre corpo e alma, solidárias a uma certa ideia de eternidade; o paradigma clínico que orienta terapêuticas num corpo individualizado a transformar-se potente para o trabalho e a construção do futuro etc. Estes três planos ou estratos temporais, assim como alguns outros que se esboçam nas práticas de remediar, apresentam procedências, durações, ritmos e velocidades particulares, reorganizando ademais as reciprocidades entre passado e futuro. Entretanto, são simultâneos e, nas diversas circunstâncias do cotidiano, se colocam em relações de conflitos e de consensos.
143

Study of analytical methods for electron track detection from heavy quark decays generated by sqrt(s)=8TeV pp collisions at ALICE / Estudo de métodos analíticos para detecção de traços de elétrons oriundos do decaimento de quarks pesados por colisões pp a raiz(s)=8TeV no ALICE

Marco Aurelio Luzio 03 May 2017 (has links)
A study of the usage of ALICEs time of flight (TOF), time projection chamber (TPC), and electromagnetic calorimeter (EMCal), aiming at detecting and separating electrons and positrons (e±) originated from different sources, was carried out. To accomplish the objectives of the research, data gathered from the 2012 proton-proton (pp) collision experiment were used. At a center of mass energy of sqrt(s)=8TeV, the collision of the proton beams liberates heavy quarks, charm and bottom, with approximate lifetimes of approximately 10^13s and 10^12s, respectively. The e± generated through weak semileptonic heavy flavor decays are of interest for studying quarks, therefore it served solely as motivation and incentive for the research carried out and described herein. The introduction of carefully selected cuts, with the purpose of separating partial data collected in the three detectors, permitted the understanding of their effect on the results. Furthermore, due to the fact that the TOFs design was not meant to separate e± from the other heavier particles, only the general effects of introducing a simple cut in the beta=v/c values were analyzed. The more specific cuts were only used for the data generated by the events detected by the TPC and the EMCal. A combination of cuts based on the particles energy loss as a function of traveled distance (dE/dx), with the ratio of energy to momentum (E/p) of the particle, was adopted to enable the separation process, thus allowing for the isolation of e± from the other particles, namely pi±, K±, and p/p. The analysis was performed for values of total particle momentum in the range 0<=p<=6GeV/c. A comparison of the raw data with the results obtained by applying this procedure, indicated a substantial increase in the e± yield and efficiency, reaching average values above 90% over the entire momentum range. / Um estudo do uso dos detetores de tempo de voo (TDV), câmara de projeção de tempo (CPT), e calorímetro eletromagnético (CalEM) do ALICE, visando detectar elétrons e pósitrons (e±) originados por diferentes fontes, foi realizado. Para atingir os objetivos da pesquisa, dados coletados durante o experimento de colisões próton-próton em 2012 foram utilizados. Com um nível de enegia do centro de mass igual a raiz(s)=8TeV, a colisão dos feixes de prótons libera quarks pesados, charm e bottom, com tempo de vida de aproximadamente 10^13s e 10^12s, respectivamente. Os e± gerados pelo decaimento fraco semileptônico de sabores pesados é de interesse para o estudo dos quarks, portanto, o conceito serviu somente como motivação e incentivo para a pesquisa realizada e descrita nesta dissertação. A introdução de cortes específicos, com a finalidade de parcialmente separar dados coletados nos três detectores, permitiu adquirir entendimento sobre os efeitos do cortes nos resultados. Adicionalmente, em virtude do projeto do TDV não ter sido feito visando separar e± oriundos do decaimento dos sabores pesados das demais partículas mais massivas, somente os efeitos gerais de introduzir um corte simples nos valores de beta=v/c, foram analisados. Os cortes mais específicos foram somente nos dados detectados pelo CPT e pelo CalEM. Uma combinação de cortes baseados na perda de energia da partícula em função da distância percorrida (dE/dx), com a razão entre a energia e o momento da partícula (E/p), foi adotada para viabilizar o processo de separação, desta forma permitindo a separação dos e± das demais partículas, ou seja, dos pi±, K±, and p/p. A análise foi realizada para valores de momento total das partículas na faixa 0<=p<=6GeV/c. Uma comparação dos dados originais com os resultados obtidos pela aplicação do procedimento, indicou um aumento substancial do rendimento e eficiência dos e±, atingindo valores médios acima de 90% na faixa inteira de momento.
144

[en] CONVEX ANALYSIS AND LIFT-AND-PROJECT METHODS FOR INTEGER PROGRAMMING / [es] ANÁLISIS CONVEXA Y MÉTODOS LIFT-AND-PROJECT PARA PROGRAMACIÓN ENTERA / [pt] ANÁLISE CONVEXA E MÉTODOS LIFT-AND-PROJECT PARA PROGRAMAÇÃO INTEIRA

PABLO ANDRES REY 06 August 2001 (has links)
[pt] Algoritmos para a resolução de problemas de programação mista 0-1 gerais baseados em cortes derivados dos métodos lift-and-project, tem se mostrado bastante eficientes na prática. Estes cortes são gerados resolvendo um problema que depende de uma certa normalização. Desde um ponto de vista teórico, o bom comportamento destes algoritmos não foi completamente compreendido, especialmente no que diz respeito à normalização. Neste trabalho consideramos normalizações gerais definidas por um conjunto convexo fechado arbitrário, estendendo assim a análise teórica desenvolvida nos anos noventa. Apresentamos um marco teórico que abarca todas as normalizações previamente estudadas e introduzimos novas normalizações, analisando as propriedades dos cortes associados.Introduzimos também uma nova fórmula de atualização do parâmetro proximal para uma variante dos métodos de feixes. Estes métodos são bem conhecidos pela sua eficiência na resolução de problemas de otimização não diferenciável. Por último, propomos uma metodologia para eliminr soluções redundantes de programas inteiros combinatórios. Nossa proposta baseia-se na utilização da informação de simetria do problema, eliminam a simetria sem prejudicar a solução do problema inteiro. / [en] Algorithms for general 0-1 mixed integer programs can be successfully developed by using lift-and-project methods to generate cuts. Cuts are generated by solving a cut- generation-program that depends on a certain normalization. From a theoretical point of view, the good numerical behavior of these cuts is not completely understood yet, specially, concerning to the normalization chosen. We consider a general normalization given by an arbitrary closed convex set, extending the theory developed in the 90's. We present a theoretical framework covering a wide group of already known normalizations. We also introduce new normalizations and analyze the properties of the associated cuts. In this work, we also propose a new updating rule for the prox parameter of a variant of the proximal bundle methods, making use of all the information available at each iteration. Proximal bundle methods are well known for their efficiency in nondifferentiable optimization. Finally, we introduce a way to eliminate redundant solutions ( due to geometrical symmetries ) of combinatorial integer program. This can be done by using the information about the problem symmetry in order to generate inequalities, which added to the formulation of the problem, eliminate this symmetry without affecting solution of the integer problem. / [es] Los algoritmos para la resolución de problemas de programación mixta 0-1 generales que utilizan cortes derivados de los métodos lift-and-project, se han mostrado bastante eficientes en la práctica. Estos cortes se generan resolviendo un problema que depende de una cierta normalización. Desde el punto de vista teórico, el buen comportamiento de estos algoritmos no fue completamente comprendido, especialmente respecto a la normalización. En este trabajo consideramos normalizaciones generales definidas por un conjunto convexo cerrado arbitrario, extendiendo así el análisis teórico desarrollado en los años noventa. Presentamos un marco teórico que abarca todas las normalizaciones previamente estudiadas e introducimos nuevas normalizaciones, analizando las propiedades de los cortes asociados. Introducimos una nueva fórmula de actualización del parámetro de. Estoss métodos son bien conocidos por su eficiencia en la resolución de problemas de optimización no diferenciable. Por último, proponemos una metodología para eliminar soluciones redundantes de programas enteros combinatorios. Nuestra propuesta se basa en la utilización de la información de simetría del problema, eliminan la simetría sin perjudicar la solución del problema entero.

Page generated in 0.0253 seconds