• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 216
  • 46
  • Tagged with
  • 262
  • 262
  • 166
  • 69
  • 43
  • 42
  • 29
  • 23
  • 22
  • 21
  • 20
  • 17
  • 17
  • 16
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

[en] ON THE MIN DISTANCE SUPERSET PROBLEM / [pt] SOBRE O PROBLEMA DE SUPERSET MÍNIMO DE DISTÂNCIAS

LEONARDO LOBO DA CUNHA DA FONTOURA 09 June 2016 (has links)
[pt] O Partial Digest Problem (problema de digestão parcial), também conhecido como o Turnpike Problem, consiste na construção de um conjunto de pontos na reta real dadas as distâncias não designadas entre todos os pares de pontos. Uma variante deste problema, chamada Min Distance Superset Problem (problema de superset de distância mínimo), lida com entradas incompletas em que algumas distâncias podem estar faltando. O objetivo deste problema é encontrar um conjunto mínimo de pontos na reta real, tal que as distâncias entre cada par de pontos contenham todas as distâncias de entrada. As principais contribuições deste trabalho são duas formulações de programação matemática diferentes para o Min Distance Superset Problem: uma formulação de programação quadrática e uma formulação de programação inteira. Mostramos como aplicar um método de cálculo direto de limites de valores de variáveis através de uma relaxação Lagrangeana da formulação quadrática. Também introduzimos duas abordagens diferentes para resolver a formulação inteira, ambas baseadas em buscas binárias na cardinalidade de uma solução ótima. A primeira baseia-se num subconjunto de variáveis de decisão, na tentativa de lidar com um problema de viabilidade mais simples, e o segundo é baseado na distribuição de distâncias entre possíveis pontos disponíveis. / [en] The Partial Digest Problem, also known as the Turnpike Problem, consists of building a set of points on the real line given their unlabeled pairwise distances. A variant of this problem, named Min Distance Superset Problem, deals with incomplete input in which distances may be missing. The goal is to find a minimal set of points on the real line such that the multiset of their pairwise distances is a superset of the input. The main contributions of this work are two different mathematical programming formulations for the Min Distance Superset Problem: a quadratic programming formulation and an integer programming formulation.We show how to apply direct computation methods for variable bounds on top of a Lagrangian relaxation of the quadratic formulation. We also introduce two approaches to solve the integer programming formulation, both based on binary searches on the cardinality of an optimal solution. One is based on a subset of decision variables, in an attempt to deal with a simpler feasibility problem, and the other is based on distributing available distances between possible points.
232

[en] RELIEF IMPOSTORS / [pt] IMPOSTORES COM RELEVO

ESTEBAN WALTER GONZALEZ CLUA 02 September 2004 (has links)
[pt] O presente trabalho introduz o conceito de impostores com relevo: uma maneira eficiente para representar objetos por imagens em sistemas que requerem visualização em tempo real, especialmente jogos 3D e ambientes de realidade virtual. Para tanto, mesclam-se métodos tipicamente pertencentes à área de renderização baseada em imagens com métodos tradicionais de visualização baseada em geometria. A técnica requer do usuário apenas a modelagem geométrica da entidade a ser representada. Posteriormente o sistema sintetiza texturas com relevo, dinamicamente atualizadas quando necessário, e as visualiza utilizando o método de mapeamento de texturas com relevo. Esta abordagem permite inserir modelos complexos, tanto pela sua natureza geométrica, como pelo seu processo de visualização, no pipeline gráfico em tempo real. Além disso, os impostores com relevo procuram aproveitar o tempo ocioso ou recursos paralelos disponíveis no processador, de forma a balancear a carga de processamento de visualização entre CPU/GPU. Estes impostores também tornam possível a representação de qualquer tipo de objeto geométrico através de mapeamento de texturas com relevo. / [en] The present work introduces the concept of relief impostors: an efficient manner of representing objects by images in systems that require real time rendering, such as 3D games and virtual reality environments. For this purpose, typical methods of image-based rendering are mixed with traditional geometry based rendering methods. This technique only requires from the user the geometric modeling of the entity to be represented. After this, the system synthesizes relief textures, dynamically refreshed when necessary, and renders them using the method of relief texture mapping. This approach allows complex models to be inserted into the real time pipeline system. This complexity arise either from the geometric nature of the model or its process of visualization. Also, the relief impostors try to use the idle time or parallel resources available on the processor, in order to balance the work to be done between the CPU and GPU. Furthermore, they make possible the representation of any kind of geometric object by the relief texture mapping technique.
233

[en] METHODOLOGIES FOR FUEL DEVELOPMENT AND DETERMINATION OF FLAME PROPAGATION VELOCITY IN SPARK IGNITION ENGINES / [pt] METODOLOGIAS PARA DESENVOLVIMENTO DE COMBUSTÍVEIS E DETERMINAÇÃO DA VELOCIDADE DE PROPAGAÇÃO DE CHAMA EM MOTORES DE IGNIÇÃO POR CENTELHA

18 November 2021 (has links)
[pt] As projeções para as próximas décadas indicam que os combustíveis tradicionais, derivados do petróleo, associados à utilização de biocombustíveis nos motores de combustão interna continuarão sendo a principal fonte de propulsão dos veículos. Isto justifica as intensas pesquisas por todo o Mundo, para atender aos desafios de aumento de eficiência e redução de emissões de poluentes. As modelagens dos combustíveis comerciais, que possuem centenas de componentes, e dos processos de combustão em motor são, hoje, desafios reais. Também carecem estudos sistemáticos para compreender melhor como os diferentes componentes de combustíveis interagem em mistura e influenciam os parâmetros de combustão e desempenho nos motores. No presente trabalho, realizaram-se seleção de componentes e ensaios experimentais em motor comercial para identificar formulações reduzidas representativas de gasolinas comerciais brasileiras. Concluiu-se que formulações compostas de n-heptano, iso-octano, tolueno e etanol podem ser utilizadas para modelagem de gasolinas oxigenadas. Implementaram-se metodologias para avaliar a influência dos componentes nas propriedades dos combustíveis e parâmetros de combustão e desempenho do motor, identificando os potencias de cada componente e seus grupos químicos. Com dados experimentais de pressão no cilindro desenvolveu-se modelagem para se calcular a velocidade de propagação de chama no motor, bem como foram obtidas relações para calculá-la a partir da velocidade de chama laminar do combustível na condição padrão. Estas relações possuem como parâmetros de entrada o Reynolds de admissão, pressão e temperatura dos gases não queimados na câmara de combustão. Os resultados reúnem informações e metodologias que poderão ser usadas em várias etapas do processo de desenvolvimento de combustíveis para diferentes aplicações. / [en] For the next decades it is expected that the fossil fuels and bio-fuels usage in internal combustion engines remains to be the main source for vehicular propulsion. This justifies the intense worldwide research and development to comply with the challenges of increasing efficiency and emissions reduction. The modeling of commercial fuels and engine combustion processes presents great challenges. There is also the need to better understand how different fuel components interact and influence engine combustion and performance parameters. In the present work, components selection and engine dynamometer tests were done to identify representative surrogate fuels for commercial Brazilian gasoline. It was concluded that formulations of n-heptane, iso-octane, toluene and ethanol can be used to model oxygenated gasolines. Methodologies were implemented to evaluate the influence of the fuel components on fuel properties and several engine combustion and performance parameters. The potentials of each component and corresponding chemical group were identified. Using in cylinder pressure measurements it was developed a methodology to calculate flame propagation velocity in a commercial engine. Further, mathematical modeling was developed to calculate this combustion parameter, based on fuel laminar flame velocity at standard condition. The relations were designed considering the intake Reynolds number, temperature and pressure of the unburned gases inside the cylinder. The results put together informations and methodologies that can be used in several steps of the fuel development process for different applications.
234

[pt] ENSAIOS DE MODELAGEM DINÂMICA APLICADA A SEGURO DE VIDA E PREVIDÊNCIA: LONGEVIDADE, RESGATE E OPÇÕES EMBUTIDAS / [en] ESSAY ON DYNAMIC MODELING IN LIFE INSURANCE AND PRIVATE PENSION: LONGEVITY, SURRENDER AND EMBEDDED OPTIONS

CESAR DA ROCHA NEVES 11 April 2016 (has links)
[pt] Nesta tese, propomos quatro modelos dinâmicos para ajudar as seguradoras e fundos de pensão a medir e gerencias seus fatores de risco e seus planos de anuidade. Nos primeiros dois ensaios, propomos modelos de previsão de ganhos de longevidade de uma população, que é um importante fator de risco. No primeiro artigo, um modelo de séries temporais multivariado usando a abordagem SUTSE (seemingly unrelated time series equation) é proposto para prever ganhos de longevidade e taxas de mortalidade. No segundo artigo, um modelo estrutural multivariado com tendências estocásticas comuns é proposto para prever os ganhos de longevidade de uma população com uma curta série temporal de taxas de mortalidade, usando as informações de uma população relacionada, para qual uma longa série temporal de taxas de mortalidade é disponível. No terceiro artigo, outro importante fator de risco é modelado – taxas de cancelamento. Apresentamos um modelo estocástico multiestágio para previsão das taxas de cancelamento usando simulação de Monte Carlo depois de uma sequência de ajustes GLM, ARMA-GARCH e cópula multivariada ser executada. No quarto artigo, assumindo a necessidade de se avaliar as opções embutidas para manter a solvência dos planos de anuidade, propomos um modelo para mensuração das opções embutidas nos planos unit-linkeds brasileiros. / [en] In this thesis we propose four dynamic models to help life insurers and pension plans to measure and manage their risk factors and annuity plans. In the first two essays, we propose models to forecast longevity gains of a population, which is an important risk factor. In the first paper, a multivariate time series model using the seemingly unrelated time series equation (SUTSE) framework is proposed to forecast longevity gains and mortality rates. In the second paper, a multivariate structural time series model with common stochastic trends is proposed to forecast longevity gains of a population with a short time series of observed mortality rates, using the information of a related population for which longer mortality time series exist. In the third paper, another important risk factor is modeled – surrender rates. We propose a multi-stage stochastic model to forecast them using Monte Carlo simulation after a sequence of GLM, ARMA-GARCH and multivariate copula fitting is executed. Assuming the importance of the embedded options valuation to maintain the solvency of annuity plans, in the fourth paper we propose a model for evaluating the value of embedded options in the Brazilian unit-linked plans.
235

[en] DISCUSSION OF THE POSSIBILITIES TO ACHIEVE A NEARLY ZERO ENERGY BUILDING (NZEB) USING THE BIM APPROACH / [pt] DISCUSSÃO DAS POSSIBILIDADES DE OBTENÇÃO DE UM EDIFÍCIO COM BALANÇO DE ENERGIA PRÓXIMO A ZERO (NZEB) USANDO A ABORDAGEM BIM

ALEXANDRE SANTANA CRUZ 28 December 2020 (has links)
[pt] Uma arquitetura que exige uma enorme demanda de energia contraria o conceito de um Edifício de Energia Quase Zero (em inglês Nearly Zero Energy Building - NZEB). Pesquisas indicam que edifícios de alto desempenho podem ser alcançados com um design integrado que combina estratégias de eficiência energética, como vidro de alto desempenho, com energia fotovoltaica. A metodologia BIM pode incorporar a Análise de Desempenho do Edifício para apoiar a tomada de decisão de um projeto integrado, essa abordagem é considerada essencial para alcançar um NZEB bem-sucedido. A presente investigação inclui uma revisão sistemática da literatura que orientou a pesquisa. Com base na SLR, foi desenvolvido um Manual de Entrega de Informações que propõe um novo fluxo de trabalho no qual os estudos de energia são realizados nos estágios iniciais do design para alcançar projetos com maior eficiência energética e aproveitar a colaboração intrínseca à metodologia BIM. Por fim, é apresentado um experimento hipotético de um edifício comercial para ilustrar o fluxo de trabalho proposto no IDM desenvolvido. O software Autodesk Revit foi usado para modelar o edifício e a simulação energética foi realizada no software DesignBuilder. Verificou-se que, para que esses dois softwares fossem interoperáveis, o modelo precisava ser exportado do Revit no formato gbXML. As opções de design foram baseadas na proporção de janela/parede (30 por cento, 50 por cento e 100 por cento), no vidro adotado e no sistema fotovoltaico. A análise de viabilidade econômica foi realizada com base no Valor Presente Líquido e na Taxa Interna de Retorno. Os resultados indicaram que o uso da fachada norte para produção fotovoltaica combinado com o sistema fotovoltaico da cobertura forneceu um balanço de energia próximo de zero na maioria dos casos. Por fim, todos os casos analisados têm um tempo de retorno de investimento inferior a garantia do fabricante dos módulos fotovoltaicos (25 anos), exceto no caso com 100 por cento de relação janela/parede e vidro PV na fachada norte. / [en] An architecture that requires a huge energy demand goes against the concept of a Nearly Zero Energy Building (NZEB). Research on the subject indicates that high performing buildings can be achieved with an integrated design that combines energy efficiency strategies, such as high performing glass, with photovoltaic energy (PV). The Building Information Modeling (BIM) methodology can incorporate Building Performance (BP) analysis to support decision making of an integrated design, which is considered essential to achieve a successful NZEB. The present investigation includes a Systematic Literature Review (SLR) that guided the research. Based on the SLR, an Information Delivery Manual was developed that propose a new workflow in which the energy studies are performed in the early stages of design to achieve more energy efficient projects and take advantage of the collaboration intrinsic to the BIM methodology. Lastly, a hypothetical experiment of a commercial building is presented to illustrate the workflow proposed in the developed IDM. The Autodesk Revit software was used to model the building and the energy computer simulation was performed in the DesignBuilder software. It was found that for these two software tools to be interoperable, the model had to be exported from Revit in gbXML format. The design options in the experiment were based on window-to-wall ratio (30 per cent, 50 per cent and 100 per cent), on the adopted glass, and on the photovoltaic system. The economic feasibility analysis was performed based in the Net Present Value (NPV) and the Internal Rate of Return (IRR). The results indicated that the use of the north facade for PV production combining with the PV roof system provided a nearly zero energy balance in most of the cases. Finally, all cases analyzed had a payback time of less than the PV module manufacturer guarantee (25 years), except for the case with 100 per cent window-to-wall ratio and PV Glass in the north facade.
236

[pt] ELEMENTOS PARA COMUNICAÇÃO QUÂNTICA EXPERIMENTAL UTILIZANDO FOTODIODOS AVALANCHE / [en] ELEMENTS FOR QUANTUM COMMUNICATION BASED ON AVALANCHE PHOTODIODES

THIAGO FERREIRA DA SILVA 12 November 2021 (has links)
[pt] Detectores de fótons únicos baseados em fotodiodo avalanche (SPADs) são elementos essenciais em aplicações que requerem alta sensibilidade, como comunicações quânticas. É proposto um método para caracterização em tempo real da eficiência de detecção e das probabilidades de contagem de escuro e de pós-pulsos em SPADs através da análise da estatística de tempos entre detecções consecutivas utilizando instrumentação simples com o detector sob condições de operação. O método é então aplicado no monitoramento dos detectores utilizados em um sistema de distribuição quântica de chaves, motivado pela falha de segurança que imperfeições apresentadas pela tecnologia atual de detecção podem acarretar. Em especial, os ataques after-gate e time-shif são implementados e analisados. Uma simulação através do método de Monte-Carlo de um detector de fótons únicos composto por uma associação de diversos SPADs ativados serialmente e precedidos por uma chave óptica ativa é apresentada, visando otimizar a performance de detecção com tecnologia atual no tangente à frequência de gatilho. É reportada ainda a interferência estável entre fótons provenientes de fontes laser atenuadas totalmente independentes, cuja visibilidade é monitorada ao longo do tempo para um enlace implementado sobre duas bobinas de 8,5 km com controle ativo de polarização, passo importante para a tecnologia de repetidores quânticos e para o protocolo para distribuição quântica de chaves independente do aparato de medição. Um medidor de estados de Bell é implementado, utilizando-se óptica linear, com a resposta do sistema verificada para diferentes combinações dos estados preparados em duas estações remotas conectadas à estação central de medição através do canal estabilizado. / [en] DetecSingle-photon detectors based on avalanche photodiodes (SPADs) are key elements in ultra-sensitive applications, such as quantum communication. This thesis presents a method for real-time characterization of the overall detection efficiency, afterpulse and dark count probabilities, based on the analysis of the statistics of times between consecutive detections with simple instrumentation under operational condition. The method is employed for monitoring the SPADs on a quantum key distribution system, to prevent security failures due to side-channel attacks caused by current technology loopholes. The after-gate and time-shift attacks are implemented and analyzed. A Monte-Carlo simulation of a serially-activated association of SPADs, preceeded by an active optical switch, is performed for enhancement of the gating frequency performance with detectors based on current technology. The stable interference between photons from two independent faint laser sources is also reported, with visibility stability monitored over time after an optical link composed by two polarization-controlled 8.5-km fiber spools, a key features for quantum repeater and the measurement device independent quantum key distribution protocols. A Bell states analyzer is implemented with linear optics, and its response is verified for different combination of polarization states received from the remote stations through the stabilized channels.
237

[pt] ESTUDO NUMÉRICO DOS MOTORES À IGNIÇÃO POR COMPRESSÃO ASSISTIDA POR CENTELHA (SACI) / [en] NUMERICAL STUDY OF SPARK-ASSISTED COMPRESSION IGNITION ENGINES (SACI)

CAIO FILIPPO RAMALHO LEITE 28 December 2021 (has links)
[pt] Nos últimos anos, a indústria automotiva se reinventou para atender às demandas do mercado, que tem se mostrado competitivo em um contexto com legislações ambientais severas. Uma alternativa para reduzir as emissões de gases de efeito estufa prejudiciais ao longo da vida do veículo são os carros elétricos. No entanto, a produção e o descarte de baterias elétricas ainda é um problema a ser resolvido. Por isso, as empresas também buscam alternativas para aumentar a eficiência do motor de combustão interna e desenvolver tecnologias verdes, como a Ignição por Compressão de Carga Homogênea ou a Ignição por Compressão Assistida por Centelha (SACI). Uma rotina MATLAB foi criada para prever o desempenho da combustão SACI de gás natural usando um modelo termodinâmico de duas zonas. Este trabalho realiza análise de sensibilidade para cinco parâmetros de desempenho: eficiência térmica (Nth), pressão efetiva média indicada (IMEP), emissões de NOx, temperatura média no cilindro (Tavg) e tempo de autoignição (AIT), com várias variáveis como a velocidade do motor (RPM), a razão de equivalência combustível-ar (0s), o tempo da centelha (0s), a razão de compressão (rc) e a pressão de admissão (Pint), usando planejamento de experimentos para avaliar o impacto dos fatores. O Planejamento de Composto Central indica que o RPM e o 0 foram os fatores mais importantes no SACI, uma vez que influenciam todos os parâmetros de desempenho. A Pint foi significativa em três parâmetros de desempenho (Nth, IMEP e Tavg), assim como o 0s (NOx, Tavg e AIT). A rc foi relevante em apenas um deles (AIT). Além disso, uma Análise Univariada foi feita para comparar as técnicas de ignição por centelha (SI) e SACI. Os resultados indicam que os motores SACI tendem a ser cerca de 9% mais eficientes e as emissões de NOx caem mais de 90%. / [en] In the last few years, the automotive industry has reinvented itself to meet the demands of the international market, which has been increasingly competitive in a context with environmental laws each year more severe. One alternative to lower harmful greenhouse gases emissions over the life of the vehicle is electric cars. However, the production and disposal of electric batteries is still a major problem to be solved. Therefore, companies are also searching for other potentialities to increase the internal combustion engine s efficiency and develop green technology, such as Homogeneous Charge Compression Ignition (HCCI) or Spark-Assisted Compression Ignition (SACI). A MATLAB routine was created to predict the performance of SACI multimode combustion of natural gas using a two-zone thermodynamic model. This work performs sensitivity analysis for five performance parameters: thermal efficiency (Nth), indicated mean effective pressure (IMEP), NOx emissions, mean in-cylinder temperature (Tavg), and auto-ignition timing (AIT), with several variables such as engine speed (RPM), fuel-air equivalence ratio (0s), spark timing (0s), compression ratio (rc), and intake pressure (Pint), using the design of experiments tools to assess the factors impact. The Central Composite Design indicates that RPM and 0 were the most important SACI factors since they influence all engine performance parameters. The Pint was significant in three performance parameters (Nth, IMEP and Tavg), as was 0s (NOx, Tavg and AIT). The rc, however, was relevant in only one of them (AIT). Furthermore, a Univariate Analysis (UA) was done to compare Spark-Ignition (SI) and SACI engines. The results show that SACI engines tend to be around 9% more efficient, NOx emissions drop notably, more than 90%, IMEP presents an increase of 76%, and Tavg decreases 200-300 K.
238

[en] AN OPEN AND EXTENSIBLE MODELING STRATEGY FOR CREATING PLANAR SUBDIVISION MODELS FOR COMPUTATIONAL MECHANICS / [pt] UMA ESTRATÉGIA DE MODELAGEM ABERTA E EXTENSÍVEL PARA A CRIAÇÃO DE MODELOS DE SUBDIVISÕES PLANARES PARA MECÂNICA COMPUTACIONAL

15 February 2022 (has links)
[pt] Este trabalho apresenta uma estratégia de modelagem aberta e extensível, desenvolvida em Python, para a criação de modelos de subdivisões planares. A estratégia se dá na forma de uma biblioteca de modelagem geométrica, denominada HETOOL, desenvolvida no trabalho e de uso genérico, baseada na conhecida e consagrada estrutura de dados topológica Half-Edge. Além de considerar os aspectos topológicos e geométricos da modelagem, a estratégia também permite a configuração pelo usuário final dos atributos de simulação. Essas características, somadas à disponibilização do código fonte, conferem um caráter útil e relevante para o desenvolvimento de ferramentas educacionais para modelagem em mecânica computacional. Para demonstrar a aplicabilidade da estratégia proposta, foi desenvolvido um aplicativo, denominado de Finite Element Method Educational Computer Program (FEMEP), que permite a criação de modelos bidimensionais de elementos finitos, com geração de malhas por região, para diversos tipos de simulação de mecânica computacional. O pacote desenvolvido apresenta uma modelagem iterativa e dinâmica que realiza a interseção automática entres os elementos geométricos modelados. O HETOOL oferece várias funcionalidades e facilidades ao usuário, permitindo o uso do pacote mesmo sem o usuário ter conhecimento sobre os conceitos topológicos envolvidos na implementação dessa estrutura de dados. O pacote possibilita a criação e configuração atributos de forma simples e rápida a partir de um arquivo no formato JSON. Essa versatilidade na criação atributos permite a aplicação deste pacote na resolução de vários problemas presentes na engenharia e em outras áreas do meio científico. / [en] This work presents an open and extensible modeling strategy, developed in Python, for creating planar subdivision models. The strategy takes the form of a geometric modeling library called HETOOL, developed in the work and of general use, based on the well-known and renowned Half-Edge topological data structure. In addition to considering the topological and geometric aspects of the modeling, a strategy also allows for an end-user configuration of simulation attributes. These characteristics, added to the availability of the source code, provide a useful and relevant tool for the development of educational tools for modeling computational mechanics. To demonstrate the applicability of the proposed strategy, an application was developed, called the Finite Element Method Educational Computer Program (FEMEP), which allows the creation of two-dimensional finite element models, with mesh generation per region, for various types of mechanics simulation computational. The developed package presents iterative and dynamic modeling that performs an automatic intersection between the modeled geometric elements. HETOOL offers several functions and facilities to the user, allowing the use of the package even without the user having knowledge about the topological concepts involved in the implementation of this data structure. The package makes it possible to create and configure attributes simply and quickly from a file in JSON format. This versatility in creating attributes allows the application of this package to solve several problems present in engineering and in other areas of the scientific environment.
239

[en] EXTRACTING RELIABLE INFORMATION FROM LARGE COLLECTIONS OF LEGAL DECISIONS / [pt] EXTRAINDO INFORMAÇÕES CONFIÁVEIS DE GRANDES COLEÇÕES DE DECISÕES JUDICIAIS

FERNANDO ALBERTO CORREIA DOS SANTOS JUNIOR 09 June 2022 (has links)
[pt] Como uma consequência natural da digitalização do sistema judiciário brasileiro, um grande e crescente número de documentos jurídicos tornou-se disponível na internet, especialmente decisões judiciais. Como ilustração, em 2020, o Judiciário brasileiro produziu 25 milhões de decisões. Neste mesmo ano, o Supremo Tribunal Federal (STF), a mais alta corte do judiciário brasileiro, produziu 99.5 mil decisões. Alinhados a esses valores, observamos uma demanda crescente por estudos voltados para a extração e exploração do conhecimento jurídico de grandes acervos de documentos legais. Porém, ao contrário do conteúdo de textos comuns (como por exemplo, livro, notícias e postagem de blog), o texto jurídico constitui um caso particular de uso de uma linguagem altamente convencionalizada. Infelizmente, pouca atenção é dada à extração de informações em domínios especializados, como textos legais. Do ponto de vista temporal, o Judiciário é uma instituição em constante evolução, que se molda para atender às demandas da sociedade. Com isso, o nosso objetivo é propor um processo confiável de extração de informações jurídicas de grandes acervos de documentos jurídicos, tomando como base o STF e as decisões monocráticas publicadas por este tribunal nos anos entre 2000 e 2018. Para tanto, pretendemos explorar a combinação de diferentes técnicas de Processamento de Linguagem Natural (PLN) e Extração de Informação (EI) no contexto jurídico. Da PLN, pretendemos explorar as estratégias automatizadas de reconhecimento de entidades nomeadas no domínio legal. Do ponto da EI, pretendemos explorar a modelagem dinâmica de tópicos utilizando a decomposição tensorial como ferramenta para investigar mudanças no raciocinio juridico presente nas decisões ao lonfo do tempo, a partir da evolução do textos e da presença de entidades nomeadas legais. Para avaliar a confiabilidade, exploramos a interpretabilidade do método empregado, e recursos visuais para facilitar a interpretação por parte de um especialista de domínio. Como resultado final, a proposta de um processo confiável e de baixo custo para subsidiar novos estudos no domínio jurídico e, também, propostas de novas estratégias de extração de informações em grandes acervos de documentos. / [en] As a natural consequence of the Brazilian Judicial System’s digitization, a large and increasing number of legal documents have become available on the Internet, especially judicial decisions. As an illustration, in 2020, 25 million decisions were produced by the Brazilian Judiciary. Meanwhile, the Brazilian Supreme Court (STF), the highest judicial body in Brazil, alone has produced 99.5 thousand decisions. In line with those numbers, we face a growing demand for studies focused on extracting and exploring the legal knowledge hidden in those large collections of legal documents. However, unlike typical textual content (e.g., book, news, and blog post), the legal text constitutes a particular case of highly conventionalized language. Little attention is paid to information extraction in specialized domains such as legal texts. From a temporal perspective, the Judiciary itself is a constantly evolving institution, which molds itself to cope with the demands of society. Therefore, our goal is to propose a reliable process for legal information extraction from large collections of legal documents, based on the STF scenario and the monocratic decisions published by it between 2000 and 2018. To do so, we intend to explore the combination of different Natural Language Processing (NLP) and Information Extraction (IE) techniques on legal domain. From NLP, we explore automated named entity recognition strategies in the legal domain. From IE, we explore dynamic topic modeling with tensor decomposition as a tool to investigate the legal reasoning changes embedded in those decisions over time through textual evolution and the presence of the legal named entities. For reliability, we explore the interpretability of the methods employed. Also, we add visual resources to facilitate interpretation by a domain specialist. As a final result, we expect to propose a reliable and cost-effective process to support further studies in the legal domain and, also, to propose new strategies for information extraction on a large collection of documents.
240

[pt] IDENTIFICAÇÃO NÃO LINEAR CAIXA-PRETA DE SISTEMAS PIEZOELÉTRICOS / [en] NONLINEAR BLACK-BOX IDENTIFICATION OF PIEZOELECTRIC SYSTEMS

MATHEUS PATRICK SOARES BARBOSA 10 September 2021 (has links)
[pt] Atuadores baseados em materiais piezelétricos apresentam características ideais para aplicações como transmissão acústica e micromanipulação. No entanto, não-linearidades inerentes a estes atuadores, como histerese e fluência, aumentam o desafio de controla-los. Além disso, a crescente necessidade de atuadores mais precisos e rápidos aliada a frequentes mudanças nas condições ambientais e operacionais agravam ainda mais o problema. Modelagens analíticas são específicas ao sistema ao qual foram feitas, o que significa que elas não são facilmente escalonáveis e eficientes para todos os tipos de sistemas. Adicionalmente, com o aumento da complexidade, os fenômenos que regem a física do sistema não são totalmente conhecidos, tornando difícil o desenvolvimento destes modelos. Este trabalho investiga esses desafios do ponto de vista da metodologia de identificação de sistemas e modelos baseados em dados para atuadores piezelétricos. A abordagem de modelagem caixa preta foi testada com dados experimentais adquiridos em um ambiente de laboratório para os estudos de caso de micromanipulação e transmissão acústica. Sinais de uso geral foram empregados como entrada de excitação do sistema de modo a acelerar a aquisição e estimação dos parâmetros. Parte dos modelos desenvolvidos foram validados com um conjunto de dados separado. Em ambos os casos foi necessário pré-processamento para otimização da quantidade de dados. Os modelos testados incluem a Média Móvel AutoRegressiva com entradas eXógenas (ARMAX), AutoRegressiva Não Linear com entradas eXógenas (NARX) com uma estrutura de rede neural artificial e Média Móvel AutoRegressiva Não Linear com entradas eXógenas (NARMAX). Os resultados mostram uma boa capacidade de prever as não-linearidades do micro manipulador e, portanto, a histerese em diferentes frequências de entrada. O sistema de transmissão acústica foi modelado com sucesso. Embora os resultados mostrem que ainda há espaço para melhorias, eles fornecem informações importantes sobre possíveis otimizações para o sistema uma vez que os modelos apresentados são uteis para janelas de predição curtas. / [en] Actuators based on piezoelectric materials have ideal characteristics for applications such as acoustic transmission and micromanipulation. However, the inherent nonlinearities of those actuators, such as hysteresis and creep, greatly increase the challenge to control such devices. Furthermore, the increasing need for more precise and faster actuators, allied with frequent changes in the environmental and operational conditions, further worsens the problem. Analytical models are application-specific, meaning that they are not easily and efficiently scalable to all systems. Also, with increased complexity, the understating of underlying phenomena is not fully documented, making it difficult to develop such models. This work investigates those challenges from the perspective of the system identification methodology and data-driven models for piezoelectric actuators. The black-box approach is tested with experimental data acquired in a laboratory setting for micromanipulator and acoustic transmission case studies. In some datasets, general-purpose signals were employed as the excitation input of the system to accelerate the data acquisition of the whole system dynamic and estimation process. Additionally, some models were validated on a separate dataset. In both cases, preprocessing was employed to optimize the amount of data. The tested models include the AutoRegressive Moving Average with eXogenous inputs (ARMAX), Nonlinear AutoRegressive with eXogenous inputs (NARX) with an artificial neural network structure, and Nonlinear AutoRegressive Moving Average with eXogenous inputs (NARMAX). The results show a good ability to predict the nonlinearities of the micromanipulator and, therefore, the hysteresis at different input frequencies. The acoustic transmission system was successfully modeled. Although the results show that there is still room for improvements, it provides insights into possible optimizations for the setup as the models here devised are useful for short prediction windows.

Page generated in 0.049 seconds