41 |
[en] DECISION TREES WITH EXPLAINABLE RULES / [pt] ÁRVORES DE DECISÃO COM REGRAS EXPLICÁVEISVICTOR FEITOSA DE CARVALHO SOUZA 04 August 2023 (has links)
[pt] As árvores de decisão são estruturas comumente utilizadas em cenários
nos quais modelos explicáveis de Aprendizado de Máquina são desejados, por
serem visualmente intuitivas. Na literatura existente, a busca por explicabilidade
em árvores envolve a minimização de métricas como altura e número de
nós. Nesse contexto, definimos uma métrica de explicabilidade, chamada de
explanation size, que reflete o número de atributos necessários para explicar
a classificação dos exemplos. Apresentamos também um algoritmo, intitulado
SER-DT, que obtém uma aproximação O(log n) (ótima se P diferente NP) para a
minimização da altura no pior caso ou caso médio, assim como do explanation
size no pior caso ou caso médio. Em uma série de experimentos, comparamos
a implementação de SER-DT com algoritmos conhecidos da área, como CART e
EC2, além de testarmos o impacto de parâmetros e estratégias de poda nesses
algoritmos. SER-DT mostrou-se competitivo em acurácia com os algoritmos
citados, mas gerou árvores muito mais explicáveis. / [en] Decision trees are commonly used structures in scenarios where explainable
Machine Learning models are desired, as they are visually intuitive. In
the existing literature, the search for explainability in trees involves minimizing
metrics such as depth and number of nodes. In this context, we define
an explainability metric, called explanation size, which reflects the number of
attributes needed to explain the classification of examples. We also present an
algorithm, called SER-DT, which obtains an O(log n) approximation (optimal
if P different NP) for the minimization of depth in the worst/average case, as well
as of explanation size in the worst/average case. In a series of experiments,
we compared the SER-DT implementation with well-known algorithms in the
field, such as CART and EC2 in addition to testing the impact of parameters
and pruning strategies on these algorithms. SER-DT proved to be competitive
in terms of accuracy with the aforementioned algorithms, but generated much
more explainable trees.
|
42 |
[en] INTELLIGENT SYSTEM FOR OPTIMIZATION OF ALTERNATIVES FOR PETROLEUM FIELDS DEVELOPMENT / [pt] SISTEMA INTELIGENTE DE OTIMIZAÇÃO DE ALTERNATIVAS DE DESENVOLVIMENTO DE CAMPOS PETROLÍFEROSYVAN JESUS TUPAC VALDIVIA 15 June 2005 (has links)
[pt] Este trabalho investiga o problema de otimização de
alternativas para o
desenvolvimento de campos petrolíferos. Uma alternativa de
desenvolvimento
refere-se à forma como um campo petrolífero, conhecido e
delimitado, é colocado
em produção, isto é, diz respeito à determinação do número,
localização e
agendamento dos poços de produção e injeção. Otimização de
alternativas
consiste em encontrar as configurações de produção que, a
longo prazo, forneçam
o maior valor presente líquido (VPL), obtido a partir do
custo de investimento
inicial, do preço do petróleo, da produção de óleo e gás,
dos custos de operação,
das alíquotas de impostos e dos royalties pagos durante o
tempo de produção. A
produção de óleo é obtida usando-se um simulador de
reservatório. O simulador
recebe a informação da alternativa a ser simulada e retorna
a curva de produção de
óleo e gás no tempo de produção especificado. Cada execução
do simulador pode
demorar desde alguns segundos até várias horas, dependendo
da complexidade do
reservatório modelado. Este trabalho propõe, implementa e
avalia um sistema
inteligente de otimização que emprega: algoritmos genéticos
(AGs) para a busca
de uma alternativa de desenvolvimento ótima; uso de
ambiente de computação
paralela para a simulação de reservatório e cálculo do VPL
das alternativas; um
módulo de inferência baseado em modelos inteligentes para
aproximar a função
de produção de óleo; e um módulo de caracterização baseado
em mapas de
qualidade para obter informações do campo petrolífero a
serem aproveitadas
durante a otimização. Este trabalho consistiu de 4 etapas:
uma revisão da
literatura sobre desenvolvimento de campos petrolíferos,
simulação de
reservatórios e caracterização de campos petrolíferos; um
estudo das técnicas de
inteligência computacional para otimização e aproximação de
funções;
desenvolvimento do modelo proposto de otimização de
alternativas; e o estudo de
casos. O modelo proposto foi avaliado com configurações de
reservatório
homogêneo e heterogêneo obtendo resultados da otimização,
do uso da
caracterização, da aproximação pelo módulo de inferência e
do uso do ambiente paralelo. Os resultados obtidos mostram
que, o modelo proposto, permite
alcançar respostas com altos VPL sem utilizar conhecimento
prévio, e também a
partir de informações extraídas da caracterização ou
fornecidas pelo próprio
especialista como sementes iniciais na otimização. A
principal contribuição deste
trabalho é a concepção e implementação de um sistema
baseado em técnicas
inteligentes para otimizar alternativas de desenvolvimento
com uma redução do
tempo computacional para um processo iterativo, obtida
tanto pelo
aproveitamento do poder computacional de um ambiente de
computação paralela,
como pelo uso de aproximações das curvas de produção. Este
sistema inteligente
oferece uma ferramenta de suporte à decisão que automatiza
a busca de
alternativas de desenvolvimento e aproveita informações
vindas do conhecimento
do engenheiro de reservatório. / [en] This work investigates the problem of optimization of
alternatives for
petroleum fields` development. A development alternative
refers to the way a
well-known and delimited petroleum field is placed in
production. This process
involves the determination of the number, localization and
scheduling of producer
and injector wells. Thus, the optimization of alternatives
consists of finding the
production configurations that, in the long term, provide
the maximum net present
value (NPV); this is obtained from the investment cost, oil
price, oil & gas
production, operation costs and taxes and royalties paid
during the production
time. The oil and gas production is obtained from a
reservoir simulator. The
simulator receives information from the alternative to be
simulated, and returns an
oil & gas production to specified production time. Each
simulation can take from
a few seconds to several hours, depending on complexity of
the reservoir being
modeled. This work proposes, implements and evaluates an
intelligent
optimization system that comprises: genetic algorithms
(GAs) to search an
optimal development alternative; using of parallel
computing environment to
reservoir simulation and NPV computing; an inference
module, basis in intelligent
models, to approximate the oil production function; and a
oilfield characterization
module, basis in quality maps, to obtain information about
the oilfield to use
during optimization process. This work consisted of four
stages: a literature
review about petroleum field development and reservoir
simulation; a study about
computational intelligence techniques applied in
optimization and functions
approximation; the development of alternatives optimization
proposal model; and
the case studies. The proposal model was evaluated using
homogeneous and
heterogeneous reservoir configurations, obtaining results
of optimization, by using
characterization, the inference module and the parallel
environment. The obtained
results indicate that the proposed model provides
alternatives with high NPV
without previous knowledge and also from information
provided by
characterization or information inserted by the expert as
initial seeds into optimization. The main contribution of
this work is the conception and the
implementation of a system basis in intelligent techniques
to optimize
development alternatives offering a reduction time to an
iterative process,
obtained from exploit of computational effort of a parallel
computing environment
or by using of production curves approximations. This
intelligent system offers a
decision-support tool that allows automating the search
process of development
alternatives and exploiting information from knowledge of
reservoir engineers.
|
43 |
[en] SEMANTIC INFERENCES IN INFORMATION RETRIEVAL FOR HYPERMEDIA APPLICATIONS / [pt] INFERÊNCIAS SEMÂNTICAS NA RECUPERAÇÃO DE INFORMAÇÕES PARA APLICAÇÕES HIPERMÍDIACRISTIANO BRAZ ROCHA 27 October 2003 (has links)
[pt] O problema de sobrecarga de informação é um dos mais sérios
enfrentados atualmente. Para tentar resolver esse problema,
áreas distintas como Gestão do Conhecimento, Web Semântica
e Modelagem de Aplicações Hipermídia têm utilizado soluções
parecidas que consistem basicamente na estruturação
semântica da informação, para que ela seja mais facilmente
acessada. Esta dissertação propõe uma infra-estrutura
baseada em técnicas e algoritmos clássicos da área de
Inteligência Artificial, que aproveita a crescente
disponibilidade de modelos relativos a um domínio para
permitir que as aplicações onde os mesmos estão
definidos realizem inferências sobre o domínio em questão.
Isso possibilita a introdução de diversas novas
funcionalidades nessas aplicações. Foram propostas
e desenvolvidas quatro novas funcionalidades, a principal
sendo a busca semântica. As novas funcionalidades foram
testadas com grande sucesso em duas aplicações: o site do
Departamento de Informática da PUC-Rio e o Portal do
Conhecimento a respeito da obra do grande pintor brasileiro
Candido Portinari. / [en] The information overload problem is one of the most
challenging problems being faced today. In order to solve
this problem, different areas such as Knowledge Management,
Semantic Web and Hypermedia Applications Modeling
have used similar solutions that consist basically of
semantically structuring the information so it can be
better accessed. This dissertation proposes an
infrastructure based on classic algorithms and techniques
of Artificial Intelligence that utilizes the increase in
the availability of domain specific models to enable the
applications where they are defined to make inferences
about these particular domains. These inferences enable the
creation of new functionalities in these applications. Four
new functionalities were proposed and implemented, the most
important being a semantic search. The new functionalities
presented were successfully tested in two existing
applications: the website of the Computer Science
Department of PUC-Rio and the Portinari Knowledge Portal
that presents all the work of the famous brazilian painter
Candido Portinari.
|
44 |
[en] PARAMETRIC IDENTIFICATION OF MECHANICAL SYSTEMS USING SUBSPACE ALGORITHMS / [pt] IDENTIFICAÇÃO PARAMÉTRICA DE SISTEMAS MECÂNICOS USANDO ALGORITMOS DE SUBESPAÇOGERMAIN CARLOS VENERO LOZANO 22 December 2003 (has links)
[pt] Identificação paramétrica de sistemas mecânicos é uma das
principais aplicações das técnicas de identificação de
sistemas na Engenharia Mecânica, especificamente para a
identificação de parâmetros modais de estruturas
flexíveis.
Um dos principais problemas na identificação é a presença
de ruido nas medições. Este trabalho apresenta uma
análise
na presença de ruído de alguns dos métodos no domínio do
tempo aplicáveis na identificação de parâmetros modais de
sistemas mecânicos lineares invariantes no tempo com
múltiplas entradas e múltiplas saídas (MIMO), usando como
base o modelo em espaço de estados tipicamente usado em
Dinâmica e Vibrações. Os algoritmos de subespaço
envolvidos
neste estudo destacam-se pela utilização da decomposição
em
valores singulares (SVD) dos dados, obtendo subespaços
ortogonais dos modos associados ao sistema e dos modos
associados ao ruído. Outros complicadores no processo de
identificação que serão explorados neste trabalho são:
flexibilidde e baixo amortecimento. Comparam-se as
técnicas
usando o modelo no espaço de estado da estrutura Mini-
mast
desenvolvida pela NASA Langley Research Center e
simulações
são feitas variando o nível de ruído nos dados, o
amortecimento e a flexibilidade da estrutura. O problema
de
identificação de parâmetros estruturais (matrizes de
massa,
rigidez e amortecimento) também é estudado, as
características e limitações dos algoritmos utilizados
são
analisados. Como exemplo de aplicação prática, um
experimento foi realizado para identificar os parâmetros
modais e estruturais de um rotor flexível e os resultados
são discutidos. / [en] Parametric identification of mechanical systems is one of
the main applications of the system identification
techniques in Mechanical Engineering, specifically for the
identification of modal parameters of flexible structures.
One of the main problems in the identification is the
presence of noise in the measurements. This work presents
an analysis in the presence of noise of some of the time
domain methods applicable in modal parameters
identification of linear time-invariant mechanical systems
with multiple inputs and multiple outputs (MIMO), using as
base the state-space model typically used in Dynamics and
Vibrations. The subspace algorithms involved in this
study are distinguished for the use of the singular values
decomposition (SVD) of the data, obtaining ortogonal
subspaces of the modes associates to the system and of the
modes associates to the noise. Other complicators in the
identification process that will be explored in this work
are: flexibility and low damping. The techniques are
compared using the state-space model of the Mini-mast
structure developed for NASA Langley Research Center and
simulations are made varying the level of noise in the
data, the damping and the flexibility of the structure. The
problem of identification of structural parameters (mass,
stiffness and damping matrices) also is studied, the
characteristics and limitations of the used algorithm is
analyzed. As example of practical application, an
experiment was made to identify the modal parameters of a
flexible rotor and the results are discussed.
|
45 |
[en] RESEQUENCING TECHNIQUES FOR SOLVING LARGE SPARSE SYSTEMS / [pt] TÉCNICAS DE REORDENAÇÃO PARA SOLUÇÃO DE SISTEMAS ESPARSOSIVAN FABIO MOTA DE MENEZES 26 July 2002 (has links)
[pt] Este trabalho apresenta técnicas de reordenação para
minimização de banda, perfil e frente de malhas de
elementos finitos. Um conceito unificado relacionando as
malhas de elementos finitos, os grafos associados e as
matrizes correspondentes é proposto. As informações
geométricas, disponíveis nos programans de elemnetos
finitos, são utilizadas para aumentar a eficiência dos
algoritmos heurísticos. Com base nestas idéias, os
algoritmos são classificados em topológicos,
geométricos, híbridos e espectrais. Um Grafo de
Elementos Finitos - Finite Element Graph (FEG)- é
definido coo um grafo nodal(G), um garfo dual(G) ou um
grafo de comunicação(G.), associado a uma dada malha de
elementos finitos. Os algoritmos topológicos mais
utilizados na literatura técnica, tais como, Reverse-
CuthiiMcKee (RCM), Collins, Gibbs-Poole-Stockmeyer(GPS),
Gibbs-King (GK), Snay e Sloan, são inventigados
detalhadamente. Em particular, o algoritmo de Collins é
estendido para consideração de componentes não conexos
nos grafos associados e a numeração é invertida para uma
posterior redução do perfil das matrizer
correspondentes. Essa nova versão é denominada Modified
Reverse Collins (MRCollins). Um algoritmo puramente
geométrico, denominado Coordinate Based Bandwidth and
Profile Reduction (CBBPR), é apresentado. Um novo
algoritmo híbrido (HybWP) para redução de frente e
perfil é proposto. A matriz Laplaciana [L(G), L(G) ou L
(G.)], utilizada no estudo de propriedades espectrais de
grafos, é construída a partir das relações usuais de
adjacências entre vértices e arestas. Um algoritmo
automático, baseado em propriedades espectrais de FEGs,
é proposto para reordenação de nós e/ou elementos das
malhas associadas. Este algoritmo, denominado Spectral
FEG Resequencing (SFR), utiliza informações globais do
grafo; não depende da escolha de um vértice pseudo-
periférico; e não utiliza o conceito de estrutura de
níveis. Um novo algoritmo espectral para determinação de
vértices pseudo-periféricos em grafos também é proposto.
Os algoritmos apresentados neste trabalho são
implementados computacionalmente e testados utilizando-
se diversos exemplos numéricos. Finalmente, conclusões
são apresentadas e algumas sugestões para trabalhos
futuros são propostas. / [en] This work presents resequencing techniques for minimizing
bandwidth, profile and wavefront of finite element meshes.
A unified approach relating a finite element mesh, its
associated graphs, and the corresponding matrices is
proposed. The geometrical information available from
conventional finite element program is also used in order
to improve heuristic algorithms. Following these ideas,
the algorithms are classified here as a nodal graph (G), a
dual graph (G) or a communication graph (G.) associated
with a generic finie element mesh. The most widely used
topological algorithms, such as Reverse-Cuthill-McKee
(RCM), Collins, Gibbs-Poole-Stockmeyer (GPS), Gibbs-King
(GK), Snay, and Sloan, are investigated in detail. In
particular, the Collins algorithm is extended to consider
nonconnected components in associated graph and the
ordering provide by this algorithm is reverted for
improved profile. This new version is called Modified
Reverse Collins (MRCollins). A purely geometrical
algorithm, called Coordinate Based Bandwidth and Profile
Reduction (CBBPR), is presented. A new hybrid reordering
algorithm (HybWP) for wavefront and profile reduction is
proposed. The Laplacian matrix [L(G), L(G) or L(G.)],
used for the study of spectral properties of an FEG, is
constructed from usual vertex and edge conectivities of a
graph. An automatic algorithm, based on spectral
properties of an FEG, is proposed to reorder the nodes
and/or elements of the associated finite element meshes.
The new algorithm, called Spectral FEG Resequencing (SFR),
uses global information in the graph; it does not depende
on a pseudoperipheral vertex in the resequencing process;
and it does not use any kind of level structure of the
graph. A new spectral algorithm for finding
pseudoperipheral vertices in graphs is also proposed. The
algorithmpresented herein are computationally implemented
and tested against several numerical examples. Finally,
conclusions are drawn and directions for futue work are
given.
|
46 |
[en] ANTENNA SELECTION IN THE DOWNLINK OF PRECODED MULTIUSER MIMO SYSTEMS / [pt] SELEÇÃO DE ANTENAS NO ENLACE DIRETO DE SISTEMAS MIMO MULTIUSUARIO COM PRÉ-CODIFICAÇÃODAILYS ARRONDE PEREZ 11 January 2019 (has links)
[pt] Esta dissertação enfoca o enlace direto de sistemas MIMO multiusuário com pré-codificação onde a estação base e os terminais dos usuários possuem múltiplas antenas mas transmitem e recebem, respectivamente, símbolos de informação através de subconjuntos selecionados de seus conjuntos de antenas. O trabalho considera sistemas que utilizam técnicas de précodificação linear como Zero Forcing (ZF) e Minimum Mean Square Error (MMSE). Expressões gerais que descrevem os sistemas e relacionam a energia gasta na transmissão com a energia disponível para a detecção em cada usuário são apresentadas. Com base nestas relações, um procedimento para seleção de antenas na transmissão é proposto visando a minimização
da probabilidade de erro. Um algoritmo de busca não exaustiva denominado ITES (Iterative Search) foi desenvolvido e testado e mostrou-se capaz de, com apenas uma pequena fração do esforço computacional, fornecer um desempenho próximo ao da seleção ótima, que demanda uma busca exaustiva. A seleção de antenas na recepção é também efetuada usando um critério de otimização semelhante. O caso geral da seleção conjunta de antenas na transmissão e na recepção contempla a combinação de ambas estratégias, resultando na redução da complexidade tanto na estação base, quanto nos terminais dos usuários. Os resultados de desempenho em termos da taxa de erro de bit, obtidos por meio de simulações e abordagem semianalítica, são apresentados para diferentes cenários. / [en] This thesis focuses on the downlink of a multiuser multiple-input multiple-output (MU-MIMO) systems where the Base Station (BS) and the users stations (UEs) transmit and receive information symbols, respectively, by selected subset of their antennas. The performance of the system is evaluated employing linear precoding techniques as Zero Forcing (ZF) and Minimum Mean Square Error (MMSE). A general model to describe the system and expressions that relate the energy spent in transmission with the energy available for detection at each user are presented. A transmit antenna selection procedure is proposed aiming at the minimization of the detection error probability. A suboptimal search algorithm, called ITES
(Iterative Search), able to deliver a performance close to the one resulting from the optimal exhaustive search selection is also proposed. The receive antenna selection is also performed using a similar optimization criterion. Joint antennas selection at the transmitter and receiver contemplates the
efficient combination of both strategies, leading to a complexity reduction in BS and UEs. BER performance results, obtained via simulation and semi-analytical approaches, are presented for different scenarios.
|
47 |
[en] CYCLE COUNTING METHODS FOR LOAD-TIME-HISTORIES TYPICAL FOR POWER PLANT APPLICATIONS / [pt] MÉTODOS DE CONTAGEM DE CICLOS USADOS EM HISTÓRIAS DE CARREGAMENTOS TÍPICAS DE USINAS NUCLEARESFELIPPE MORAES SILVA COSTA 03 May 2016 (has links)
[pt] Componentes estruturais de usinas térmicas para geração de energia sofrem transientes térmicos durante a operação da planta devido a partidas e paradas, variações de potência requerida e ocorrências causadas por anomalias. Estes transientes térmicos geram distribuições de temperaturas não uniformes ao longo da espessura dos componentes e, consequentemente, geram tensões térmicas. As variações destas tensões ao longo do tempo podem causar fadiga nos pontos mais solicitados destes componentes. A análise de fadiga para um ponto crítico do componente fornece o dano acumulado por meio do fator acumulado de dano ou CUF. O cálculo do CUF é feito baseado no conhecimento das histórias de tensões e deformações que ocorrem nos pontos críticos, no uso de modelos de geração de dano ciclo a ciclo e no uso de algoritmos para contagem de ciclos. Esta dissertação apresenta e discute modelos de dano a fadiga e suas associações aos modelos de contagem de ciclos existentes que são possíveis de serem aplicadas a componentes de usinas térmicas. Uma seleção de combinações entre modelos de dano e métodos de contagem foram utilizadas em dois exemplos nomeados estudos de caso. / [en] Structural components of power plants are subjected to thermal transients during their operational life. These thermal transients generate unequal temperature distributions across the components wall thickness, causing severe thermal stresses. The repetition of the thermal transients and, consequently, repetition of stress and strain variations are responsible for fatigue damage of the structural components. In such cases, fatigue damage is assessed by calculating the cumulative usage factor or CUF. CUF calculations are based on the stresses and strains histories, on experimental fatigue curves and fatigue damage models, and on algorithms used to determine the number of cycles a given stress or strain range occurs during the life period considered. This thesis presents and discusses fatigue damage models and their association with existing cycle counting models that are applicable to power plant components. A selection of combinations of damage and cycle-counting models was used in two case study examples.
|
48 |
[en] THE BOOSTING AT START ALGORITHM AND ITS APPLICATIONS / [pt] O ALGORITMO BOOSTING AT START E SUAS APLICACOESJULIO CESAR DUARTE 15 September 2017 (has links)
[pt] Boosting é uma técnica de aprendizado de máquina que combina diversos classificadores fracos com o objetivo de melhorar a acurácia geral. Em cada iteração, o algoritmo atualiza os pesos dos exemplos e constrói um classificador adicional. Um esquema simples de votação é utilizado para combinar os classificadores. O algoritmo mais famoso baseado em Boosting é o AdaBoost. Este algoritmo aumenta os pesos dos exemplos em que os classificadores anteriores cometeram erros. Assim, foca o classificador adicional nos exemplos mais difíceis. Inicialmente, uma distribuição uniforme de pesos é atribúda aos exemplos. Entretanto, não existe garantia que essa seja a melhor escolha para a distribuição inicial. Neste trabalho, apresentamos o Boosting at Start (BAS), uma nova abordagem de aprendizado de máquina baseada em Boosting. O BAS generaliza o AdaBoost permitindo a utilização de uma distribuição inicial arbitrária. Também apresentamos esquemas para determinação de tal distribuição. Além disso, mostramos como adaptar o BAS para esquemas de Aprendizado Semi-supervisionado. Adicionalmente, descrevemos a aplicação do BAS em diferentes problemas de classificação de dados e de texto, comparando o seu desempenho com o algoritmo AdaBoost original e alguns algoritmos do estado-da-arte para tais tarefas. Os resultados experimentais indicam que uma modelagem simples usando o algoritmo BAS gera classificadores eficazes. / [en] Boosting is a Machine Learning technique that combines several weak classifers with the goal of improving the overall accuracy. In each iteration, the algorithm updates the example weights and builds an additional classifer. A simple voting scheme is used to combine the classifers. The most famous Boosting-based algorithm is AdaBoost. This algorithm increases the weights of the examples that were misclassifed by the previous classifers. Thus, it focuses the additional classifer on the hardest examples. Initially,
an uniform weight distribution is assigned to the examples. However, there is no guarantee that this is the best choice for the initial distribution. In this work, we present Boosting at Start (BAS), a new Machine Learning approach based on Boosting. BAS generalizes AdaBoost by allowing the use of an arbitrary initial distribution. We present schemes for the determination of such distribution. We also show how to adapt BAS to Semi-supervised learning schemes. Additionally, we describe the application of BAS in different problems of data and text classifcation, comparing its performance with the original AdaBoost algorithm and some state-of-the-art algorithms for such tasks. The experimental results indicate that a simple modelling using the BAS algorithm generates effective classifers.
|
49 |
[pt] ALGORITMOS DE RETORNO À SUPERFÍCIE PARA PLASTICIDADE ASSOCIATIVA UTILIZANDO PROGRAMAÇÃO CÔNICA / [en] RETURN-MAPPING ALGORITHMS FOR ASSOCIATIVE PLASTICITY USING CONIC OPTIMIZATION17 September 2020 (has links)
[pt] Esse trabalho apresenta uma abordagem baseada em programação
matemática para a solução de problemas de valor inicial de contorno constitutivo
elastoplástico. Considerando a plasticidade associativa, as equações
constitutivas locais, em sua forma discreta, são formuladas como problemas
de otimização cônica. Especificamente, é demonstrado que métodos implícitos
de retorno a superfície para os critérios mais conhecidos da literatura,
como o de Rankine, von Mises, Tresca, Drucker-Prager e Mohr Coulomb, podem
ser expressos como problemas de otimização cônica de segunda ordem
e semidefinida. Além disso, um novo método numérico para a determinação
do operador elastoplástico consistente, baseado na derivada paramétrica de
primeira ordem das soluções ótimas, é proposto. / [en] This work presents a mathematical programming approach for elastoplastic
constitutive initial boundary value problems. Considering associative
plasticity, the local discrete constitutive equations are formulated as conic
programs. Specifically, it is demonstrated that implicit return-mapping schemes
for well-known yield criteria, such as the Rankine, von Mises, Tresca,
Drucker-Prager, and Mohr-Coulomb criteria, can be expressed as secondorder
and semidefinite conic programs. Additionally, a novel scheme for the
numerical evaluation of the consistent elastoplastic tangent operator, based
on a first-order parameter derivative of the optimal solutions, is proposed.
|
50 |
[pt] A FRONTEIRA ALGORÍTMICA NAS MÍDIAS SOCIAIS: ALGUMAS REFLEXÕES SOBRE A ESPACIALIDADE EM UM ESPAÇO TECNOCÊNTRICO / [en] THE ALGORITHMIC FRONTIER IN SOCIAL MEDIA: SOME REFLECTIONS ON A TECHNOCENTRIC SPACEMATHEUS BARCELLOS SOARES BRANDAO 31 October 2023 (has links)
[pt] A presente pesquisa analisará a ascensão e a complexificação da Web 2.0, situando-a sobre a emergência da tecnologia algorítmica. Os chamados algoritmos nascem no
século XIX, tornando-se no presente século um dos maiores dispositivos tecnológicos
referente à coleta, hierarquização, acumulação e coordenação de dados. Assim, este
trabalho busca compreender como os algoritmos, em seu desenvolvimento, adquiriram
inúmeras funções nas mídias sociais, transcendendo a finalidade de aumento da
competitividade econômica das empresas no Vale do Silício. A referida pesquisa fará
uma análise conjunta entre as escolas dos Estudos Críticos sobre Algoritmos, Estudos
Críticos sobre Fronteiras e de Sociologia Política Internacional, a fim de compreender
o que é e como nasce essa Fronteira Algorítmica, quais seriam os seus efeitos
sociopolíticos e por que ela é algo que atinge em distintos graus toda a humanidade no
século XXI. Após a introdução, a análise, o desenvolvimento e a discussão nos três
primeiros capítulos, o último capítulo se destinará a comparar o Caso Snowden e o
Escândalo da Cambridge Analytica, evidenciando semelhanças e afastamentos sobre
como os algoritmos podem ser usados com fins que não se limitam à escala econômica
e política, mas também são entidades capazes de influenciar a níveis psicológicos e
sociológicos a raça humana. / [en] This research will analyze the rise and complexity of Web 2.0, placing it on the
emergence of algorithmic technology. The so-called algorithms were born in the 19th
century, becoming in the present century one of the greatest technological devices
regarding the gathering, hierarchy, accumulation and coordination of data. Thus, this
work seeks to understand how the algorithms in their development were acquiring
numerous functions in social media, transcending the purpose of increasing the
economic competitiveness of companies in Silicon Valley. This research will make a
joint analysis between the schools of Algorithms Critical Studies, Borders Critical
Studies and International Political Sociology, to understand what this Algorithmic
Frontier is and how it is born, what would be its socio-political effects and why it is
something that affects all of humanity in the 21st century to varying degrees. After the
introduction, analysis, development and discussion in the first three chapters, the last
chapter will compare the Snowden case and the Cambridge Analytica scandal,
highlighting similarities and differences on how algorithms can be used for purposes
that are not limited to economic and political scale, but they are also entities capable of
influencing humans at psychological and sociological levels.
|
Page generated in 0.0449 seconds