21 |
[pt] TRABALHO MEDIADO POR PLATAFORMAS DIGITAIS: PROTEÇÃO AO TRABALHO ENQUANTO DUPLA FONTE DE VALOR / [en] WORK MEDIATED BY DIGITAL PLATFORMS: PROTECTION TO WORK AS A DUAL SOURCE OF VALUELUIZA NUNES LEMOS 12 May 2023 (has links)
[pt] A prestação de serviços por meio de plataformas digitais tem impactado
diretamente os modos de organização do trabalho na sociedade, que vem dividindose
entre buscar uma aplicação irrestrita do Direito do Trabalho ou defender a sua
completa desregulação, sob a justificativa de não impedir o desenvolvimento. Há
uma lacuna na pesquisa acadêmica e no debate na sociedade quanto a formas de
proteção ao trabalhador de plataformas sob uma ótica externa ao Direito do
Trabalho, que seja capaz de explicar e abordar tal fenômeno como um todo.
A presente dissertação tem como objetivo responder se as categorias tradicionais
do Direito do Trabalho são suficientes para, isoladamente, garantir os direitos
fundamentais do trabalhador que presta serviços por meio de plataformas digitais,
partindo das características fundamentais do presente contexto histórico, como
mediação por algoritmos, extração massiva de dados e vigilância constante, e da
importância do Direito do Trabalho. A pesquisa terá como marco teórico a
descrição do capitalismo de vigilância de Shoshanna Zuboff, do corpo como
elemento central do contrato de trabalho de Alain Supiot e de desenvolvimento
como liberdade de Amartya Sen.
Tendo por base tais marcos, se buscará um diagnóstico atual e coerente do sistema
no qual se desenvolve o trabalho desempenhado nas plataformas digitais, uma
análise crítica das bases que estruturam o Direito do Trabalho e uma resposta
multidisciplinar ao problema de como garantir proteção ao trabalho por meio de
plataformas digitais enquanto dupla fonte de valor. O objetivo é buscar soluções
que garantam o desenvolvimento das capacidades humanas e da condição de agente
destas, sabendo que são, em última análise, a justificativa para e existência e atuação
do Estado. / [en] The provision of services through digital platforms has directly impacted
the ways of organizing work in society, which has been divided between seeking
an unrestricted application of labor law or defending its complete deregulation, on
the grounds of not hindering development. There is a gap in academic research and
debate in society regarding ways of protecting workers from digital platforms from
an external perspective to Labor Law, which may be able to explain and address
this phenomenon as a whole.
This work aims to answer whether the traditional categories of Labor Law are
enough to, in isolation, protect the fundamental rights of the worker who provides
services through digital platforms, starting from the main characteristics of this
historical context, such as mediation by algorithms, massive data extraction and
continuous surveillance, and the relevance of Labor Law. The theoretical
framework adopted is the description of surveillance capitalism of Shoshanna
Zuboff, Alain Supiot s concept of the body as a central element of employment
contract and the notion of development as freedom of Amartya Sen.
Based on these milestones, the work seeks for a current and coherent diagnosis of
the system in which the work mediated by digital platforms is developed, a critical
analysis of the bases that structure labor law and a multidisciplinary response to the
problem of how to ensure protection to work through digital platforms as a double
source of value. The objective is to find solutions that ensure the development of
human capacities and their agent status, knowing that they are ultimately the
justification for the existence and action of the State.
|
22 |
[en] MULTIPLE IMPUTATION IN MULTIVARIATE NORMAL DATA VIA A EM TYPE ALGORITHM / [pt] UM ALGORITMO - EM - PARA IMPUTAÇÃO MÚLTIPLA DE DADOS CENSURADOSFABIANO SALDANHA GOMES DE OLIVEIRA 05 July 2002 (has links)
[pt] Construímos um algoritmo tipo EM para estimar os parâmetros
por máxima verossimilhança. Os valores imputados são
calculados pela média condicional sujeito a ser
maior (ou menor) do que o valor observado. Como a estimação
é por máxima verossimilhança, a matriz de informação
permite o cálculo de intervalos de confiança para
os parâmetros e para os valores imputados. Fizemos
experiência com dados simulados e há também um estudo de
dados reais (onde na verdade a hipótese de normalidade não
se aplica). / [en] An EM algorithm was developed to parameter estimation of a
multivariate truncate normal distribution. The multiple
imputation is evaluated by the conditional expectation
becoming the estimated values greater or lower than the
observed value. The information matrix gives the confident
interval to the parameter and values estimations.
The proposed algorithm was tested with simulated and real
data (where the normality is not followed).
|
23 |
[en] MAPPING SEISMIC EVENTS USING CLUSTERING-BASED METHODOLOGIES / [pt] MAPEAMENTO DE EVENTOS SÍSMICOS BASEADO EM ALGORITMOS DE AGRUPAMENTO DE DADOSAURELIO MORAES FIGUEIREDO 29 June 2016 (has links)
[pt] Neste trabalho apresentamos metodologias baseadas em algoritmos de
agrupamento de dados utilizadas para processamento de dados sísmicos 3D.
Nesse processamento, os voxels de entrada do volume são substituídos por
vetores de características que representam a vizinhança local do voxel dentro
do seu traço sísmico. Esses vetores são processados por algoritmos de
agrupamento de dados. O conjunto de grupos resultantes é então utilizado
para gerar uma nova representação do volume sísmico de entrada. Essa estratégia permite modelar a estrutura global do sinal sísmico ao longo de
sua vizinhança lateral, reduzindo significativamente o impacto de ruído e
demais anomalias presentes no dado original. Os dados pós-processados são
então utilizados com duas finalidades principais: o mapeamento automático
de horizontes ao longo do volume, e a produção de volumes de visualização
destinados a enfatizar possíveis descontinuidades presentes no dado sísmico
de entrada, particularmente falhas geológicas. Com relação ao mapeamento
de horizontes, o fato de as amostras de entrada dos processos de agrupamento
não conterem informação de sua localização 3D no volume permite
uma classificação não enviesada dos voxels nos grupos. Consequentemente a
metodologia apresenta desempenho robusto mesmo em casos complicados,
e o método se mostrou capaz de mapear grande parte das interfaces presentes
nos dados testados. Já os atributos de visualização são construídos
através de uma função auto-adaptável que usa a informação da vizinhança
dos grupos sendo capaz de enfatizar as regiões do dado de entrada onde existam
falhas ou outras descontinuidades. Nós aplicamos essas metodologias
a dados reais. Os resultados obtidos evidenciam a capacidade dos métodos
de mapear mesmo interfaces severamente interrompidas por falhas sísmicas,
domos de sal e outras descontinuidades, além de produzirmos atributos de
visualização que se mostraram bastante úteis no processo de identificação
de descontinuidades presentes nos dados. / [en] We present clustering-based methodologies used to process 3D seismic
data. It firstly replaces the volume voxels by corresponding feature samples
representing the local behavior in the seismic trace. After this step samples
are used as entries to clustering procedures, and the resulting cluster maps
are used to create a new representation of the original volume data. This
strategy finds the global structure of the seismic signal. It strongly reduces
the impact of noise and small disagreements found in the voxels of the
entry volume. These clustered versions of the input seismic data can then
be used in two different applications: to map 3D horizons automatically
and to produce visual attribute volumes where seismic faults and any
discontinuities present in the data are highlighted. Concerning the horizon
mapping, as the method does not use any lateral similarity measure to
organize horizon voxels into clusters, the methodology is very robust when
mapping difficult cases. It is capable of mapping a great portion of the
seismic interfaces present in the data. In the case of the visualization
attribute, it is constructed by applying an auto-adaptable function that
uses the voxel neighboring information through a specific measurement that
globally highlights the fault regions and other discontinuities present in the
original volume. We apply the methodologies to real seismic data, mapping
even seismic horizons severely interrupted by various discontinuities and
presenting visualization attributes where discontinuities are adequately
highlighted.
|
24 |
[en] COMPARISON OF DIFFERENT APPROACHES FOR DETECTION AND TREATMENT OF OUTLIERS IN METER FACTORS DETERMINATION / [pt] COMPARAÇÃO DE DIFERENTES TÉCNICAS PARA DETECÇÃO E TRATAMENTO DE OUTLIERS NA DETERMINAÇÃO DE FATORES DE MEDIDORESANDERSON LUIZ DOS SANTOS FERREIRA 20 February 2018 (has links)
[pt] O objetivo da dissertação é analisar o comportamento das diferentes metodologias utilizadas para detecção e tratamento de outliers na determinação de fatores de prova de medidores do tipo turbina. A motivação desse trabalho é evitar tomadas de decisão equivocadas decorrentes de tratamento inadequado de outliers, comprometendo a confiabilidade na medição e consequentemente seu faturamento. A prova do fator de medidor pode ser considerada como um parâmetro de calibração, expressando a razão entre o volume de referência e o volume total de líquido que passa através do medidor. A Norma internacional recomenda o teste de Dixon para o tratamento de outliers para um conjunto de prova do fator de medidor. No entanto, a literatura é explícita quanto à avaliação do comportamento dos dados, a priori. A metodologia avalia se o comportamento dos dados do conjunto de prova do fator de medidor é Gaussiano, em seguida se comparam diferentes abordagens paramétricas e não paramétricas para a detecção e tratamento de outliers aplicados às provas dos fatores de medidores do tipo turbina para a transferência de custódia de gás liquefeito de petróleo. Posteriormente, este efeito é avaliado em relação ao número de outliers e como este manuseio afeta os critérios da amplitude variável para a incerteza expandida na prova do fator de medidor médio. Os resultados mostram que diferentes fatores de medidores médios podem ser alcançados para cada teste paramétrico e não paramétrico; de qualquer forma, conclui-se que estatisticamente não é observada diferença significativa entre eles. / [en] The objective of the dissertation is to analyze the behavior of the different methodologies used for the detection and treatment of outliers in the determination of meter proving factors of turbine type meters. The motivation of this work is to avoid mistaken decision-making as a result of inadequate treatment of outliers, compromising reliability in measurement and consequently its billing. A meter proving factor can be considered as a calibration parameter, by expressing the ratio the reference volume and the gross volume of liquid passed through a meter. The international guideline recommends Dixon s test for outliers to a meter proving factor set. However, the literature is explicit regarding the evaluation of data behavior, a priori. The methodology evaluates if the behavior of the meter proving factor set is Gaussian, then different parametric and nonparametric approaches for detection and treating outliers applied to turbine meter proving factors for custody transfer of liquefied petroleum gas are compared. Afterwards, this effect is evaluated in relation to the number of outliers and how this handling affects the variable range criteria for expanded uncertainty in average meter proving factor. The results show that different average meter factors can be reached for each nonparametric and parametric test; anyway, it is concluded that no statistically significant difference between them is noticed.
|
25 |
[en] UNIVARIATE TECHNIQUES PERFECTED FOR THE ELECTRIC LOAD FORECAST OF SHORT STATED PERIOD FROM HOURLY DATA / [pt] TÉCNICAS UNIVARIADAS APERFEIÇOADAS PARA A PREVISÃO DE CURTÍSSIMO PRAZO PARTIR DE DADOS HORÁRIOSGLAUCIA DE PAULA FALCO 20 April 2006 (has links)
[pt] O ONS (operador nacional do sistema elétrico brasileiro)
vem utilizando o software ANNSTLF produzido pelo
EPRI/EUA
(Eletrical Power Research Institute) para realizar a
previsão do consumo de carga horária. Entretanto, as
estimativas fornecidas pelo programa estão fundamentadas
na metodologia de uma rede neural que, de certo modo,
impede ao usuário de extrair uma maior interpretação dos
resultados que são fornecidos pela rede. Assim sendo,
este
trabalho pesquisou os métodos univariados convencionais:
Holt-Winters e Box e Jenkins, considerando suas
formulações aperfeiçoadas e adaptadas às características
próprias do tipo de série em questão. Isto é, assumindo
a
existência de dois ciclos sazonais: um diário e outro
semanal. A vantagem destas técnicas univariadas, em
comparação ao ANNSTLF, é principalmente a
interpretabilidade das informações obtidas. Dessa forma,
esta pesquisa permite também avaliar melhor o desempenho
do ANNSTLF. / [en] The ONS (National Operator of the Brazilian electrical
system) has been using the software ANNSTLF produced by
EPRI/USA (Eletrical Power Research Institute) to carry out
the forecast of the hourly load consumption. However, the
estimates supplied by the program are based on the
methodology of a neural net that, in a way, does not allow
the user to extract a better interpretation of the results
produced by the net. Therefore, investigates the
conventional univaried methods: Holt-Winters and Box &
Jenkins, considering its formulations perfected and
adapted to the characteristics of the series understudy.
That is, its assumed the existence of two seasonal cicles:
daily and weekly. The advantage of these univariate
techniques, in comparison to the ANNSTLF, is mainly the
ability to interpret the model estimates. Also, this
research also allows a better evaluation the performance
of the ANNSTLF.
|
26 |
[en] ESTIMATES OF VOLUMETRIC CURVATURE ATTRIBUTES IN SEISMIC DATA / [pt] ESTIMATIVAS DE ATRIBUTOS VOLUMÉTRICOS DE CURVATURA EM DADOS SÍSMICOSLEONARDO DE OLIVEIRA MARTINS 24 September 2018 (has links)
[pt] Atributos de curvatura são uma importante ferramenta para visualização e interpretação de feições estruturais em dados sísmicos. Tais medidas podem realçar falhas e fraturas sutis que não estavam evidentes no dado de amplitude, fornecendo ao intérprete informações importantes para a construção do modelo geológico da área de interesse. Neste trabalho é apresentado um método para estimar atributos de curvatura volumérica em dados sísmicos empilhados. A partir do dado de amplitude, é computado um
atributo identificador de horizonte, o qual permite que horizontes sísmicos sejam representados como superfícies de nível. Dessa maneira, o gradiente desse atributo fornece uma representação coerente do campo de normais do volume. Fórmulas para o cálculo de curvatura em superfícies implícitas são usadas para obter vários atributos de curvatura úteis na delineação e predição de importantes feições estratigráficas. Testes realizados com dados sintéticos e reais mostram que o método proposto é capaz de fornecer estimativas coerentes de atributos de curvatura a um baixo custo de processamento. São avaliados três atributos identificadores de horizontes: fase instantânea, derivada vertical e atributo de ridges. / [en] Curvature attributes are powerful tools for visualization and interpretation of structural features in seismic data. Such measures may highlight faults and subtle fractures that were not evident in amplitude data, providing important information to the interpreter to build the geological model of the area of interest. This paper presents a method for estimating volumetric curvature attributes in post-stack seismic data. Using amplitude volume, an horizon identifier attribute is computed, in order to represent seismic horizons as level surfaces. Thus, the gradient of this attribute provides a coherent estimate of volumetric normal field. Formulas for the calculation of curvature in implicit surfaces are used to compute several curvature attributes useful in the delineation and prediction of important stratigraphic features. Tests with synthetic and real data show that the proposed method is able to provide consistent estimates of attributes of curvature at low cost processing. Three horizon identifer attributes are evaluated: instantaneous phase, vertical derivative and ridge attribute.
|
27 |
[en] SOCCER CHAMPIONSHIP PROBABILITS ESTIMATION / [pt] ESTIMAÇÃO DE PROBABILIDADES EM CAMPEONATOS DE FUTEBOLEDUARDO LIMA CAMPOS 26 October 2001 (has links)
[pt] Neste trabalho, apresentamos uma metodologia para obter
probabilidades de classificação e rebaixamento de equipes
em campeonatos de futebol. A metodologia consiste
basicamente em quatro etapas. Na primeira etapa, ajustamos
modelos de séries temporais para dados de contagem a séries
de gols a favor e sofridos pelas equipes em partidas
sucessivas do campeonato, utilizando variáveis explicativas
para considerar o efeito do mando de campo, da participação
de determinados jogadores e de mudanças de técnico.
Alguns problemas referentes à construção de intervalos de
confiança e testes de hipóteses para os hiperparâmetros dos
modelos foram solucionados via bootstrap.
Na segunda etapa, obtivemos as distribuições de
probabilidade associadas aos resultados das partidas
futuras do campeonato, utilizando o Princípio da Máxima
Entropia para combinar as distribuições preditivas dos
modelos ajustados. Na terceira etapa, utilizamos as
distribuições dos resultados das partidas futuras para
simular cenários para o campeonato e, na quarta e última
etapa, estimamos as probabilidades de classificação e
rebaixamento das equipes, pela freqüência relativa da
ocorrência destes eventos em um grande número de cenários
gerados. A metodologia foi aplicada no Campeonato
Brasileiro/1999 e na Copa João Havelange/2000. / [en] In this thesis, we develop a methodology to obtain the
probabilities of qualifying and relegating of teams, in
soccer championships. The methodology consists of four steps.
In the first step, we fit time series models to the series
of number of goals scored in soccer matches. We account for
the effects of playing at home, soccer players and changes
of coaches, by introducing explanatory variables.
Confidence intervals and hipothesis tests are obtained by
bootstrap. In the second step, we get probability
distributions of the future matches results, by combining
preditive distributions of the fitted models via the
Maximum Entropy Principle. In the third step, we use the
distributions of the matches results to generate
simulation sceneries for the champhionship. In the forth
and last step, we finally estimate the probabilities of
qualifying and relegating of the teams, through the
relative frequencies of these events, in a great number of
sceneries generated. The empirical work was carried out
using data from Brazilian Champhionship/1999 and João
Havelange Cup/2000.
|
28 |
[en] FAULT MESHING GENERATION IN SEISMIC DATA BY COMPETITIVE LEARNING / [pt] GERAÇÃO DE MALHAS DE FALHAS EM DADOS SÍSMICOS POR APRENDIZADO COMPETITIVOMARCOS DE CARVALHO MACHADO 10 July 2008 (has links)
[pt] O mapeamento manual de falhas em dados sísmicos
tridimensionais é uma tarefa que consome muito tempo do
intérprete. Uma grande quantidade de atributos sísmicos tem
sido proposta para realçar medidas de descontinuidades
associadas com as falhas. Entretanto, as falhas vistas
através desses atributos aparecem mais como tendências do
que como superfícies contínuas bem definidas, o que torna
difícil a automatização da construção de modelos de
falhas. Esta tese explora técnicas de Aprendizado
Competitivo aplicadas aos problemas de extração e
visualização de falhas em dados sísmicos. A estratégia
proposta parte de um atributo de falha previamente calculado
e consiste de três etapas. Na primeira, os dados
tridimensionais uniformemente amostrados do atributo de
falha são convertidos em um grafo com uso do algoritmo de
aprendizado competitivo Growing Neural Gas. Na segunda
etapa, o grafo sofre um processo de segmentação de forma a
extrair um conjunto de subgrafos, cada um compatível com uma
superfície de falha. Na terceira etapa, é utilizado o
algoritmo Malhas Neurais Abertas para construir uma malha
triangular para cada uma das superfícies identificadas.
Malhas Neurais Abertas é um algoritmo de Aprendizado
Competitivo que é proposto nesta tese, o qual constrói uma
malha a partir de uma função de probabilidades com topologia
de uma superfície aberta sem buracos. Exemplos com dados
bidimensionais e tridimensionais, sintéticos e
reais, são apresentados. Outra aplicação de Aprendizado
Competitivo introduzida nesta tese é a geração de malhas
geológicas, isto é, malhas que podem ser utilizadas na
simulação do comportamento de fluidos em subsuperfície. / [en] Manual fault mapping from 3D seismic data is a
time-consuming task. A plethora of seismic attributes has
been proposed to enhance the discontinuity measures
associated with faults. However, faults viewed through these
attributes appear more like trends than well-defined,
continuous surfaces, posing obstacles to the automation of
the fault modeling process. This thesis explores the use of
Competitive Learning techniques in fault extraction and
visualization. The proposed strategy starts with a
pre-computed fault attribute and consists of three
steps. In the first, the uniformly sampled 3D fault
attribute data are converted into a graph using Growing
Neural Gas, a Competitive Learning algorithm. In the
second step, the graph is submitted to a segmentation
process in order to extract a set of subgraphs, each one
compatible with a fault surface. In the third step, the
Open Neural Meshes algorithm is used to build a triangulated
mesh for each previously identified surface. Open Neural
Meshes is a Competitive Learning algorithm proposed in this
thesis, which builds a mesh from a probability function
with no-hole open surface topology. Examples with 2D and 3D,
synthetic and real data are presented. Another Competitive
Learning application introduced in this thesis is the
generation of geologic meshes. These meshes can be used to
simulate fluid flows in subsurface reservoirs.
|
29 |
[en] RADIO SIGNAL PREDICTIONS FOR INDOOR LOCATIONS WITH TRANSMITTER IN MICROCELLULAR ENVIRONMENT / [pt] PREDIÇÃO DE COBERTURA PARA O INTERIOR DAS EDIFICAÇÕES COM TRANSMISSORES EM AMBIENTES MICROCELULARESJASON PAULO TAVARES FARIA JUNIOR 22 July 2003 (has links)
[pt] Neste trabalho, um - software - foi desenvolvido para
prover predições do sinal em ambientes exteriores e
interiores. O programa inclui dois diferentes modelos de
propagação. Para situações urbanas com antenas baixas
(Microcélulas) e para situações urbanas onde o receptor
pode ser posicionado numa área - indoor - e o transmissor
numa área urbana ( - outdoor -). O procedimento
automatizado combina técnicas de várias diferentes
disciplinas, incluindo computação gráfica e teoria
eletromagnética assintótica, para reduzir o tempo de
computação sem comprometer a precisão. Usando técnicas de
computação gráfica, o tempo necessário para o lançamento de
raios através da geometria urbana é grandemente reduzido.
Os dados teóricos foram testados e validados por comparação
com dados experimentais. Para modelar os diferentes
mecanismos de propagação, a aproximação eletromagnética
usada foi a OG/UTD. / [en] In this work, a software tool has been developed that
provides accurate, sitespecific radio signal predictions
for outdoor to indoor/outdoor locations. The program
includes two different propagation models. For urban
calculations with low antennas (Microcells) and for urban
situations where receiver can be located at indoor
area and transmitter antennas can be located at Urban area
(outdoor). The software combines techniques from several
different disciplines, including computer graphics
and asymptotic electromagnetic theory, to reduce the
calculation time without compromising accuracy. Using
computer graphics techniques, the time necessary for
shooting the rays through the urban geometry is greatly
reduced. The calculation engine used has been tested and
validated by comparison with measured data. In order to
model the diferent propagation mechanisms, the
eletromagnetic approach considered has been the GO/UTD
combination.
|
30 |
[pt] SEGMENTAÇÃO DE VÍDEO NO DOMÍNIO COMPRIMIDO BASEADA NA HISTÓRIA DA COMPACTAÇÃO / [en] VIDEO SEGMENTATION IN THE COMPRESSED DOMAIN BASED ON THE COMPRESSION HISTORYCRISTINA NADER VASCONCELOS 26 December 2005 (has links)
[pt] Este trabalho apresenta uma proposta de solução do problema de deteção de tomada de câmera de vídeos MPEG-1 e MPEG-2. A abordagem proposta está baseada na aplicação de diversas heurísticas para eliminação de quadros semelhantes, de forma a extrair um conjunto de quadros que representam os cortes entre tomadas de câmera vizinhas. Essas heurísticas analisam informações no domínio compactado, obtidas diretamente do fluxo de dados codificado dos vídeos, como forma de eliminar o processo de descompressão MPEG e diminuir o volume de dados manipulados durante a análise. A observação dos valores assumidos pelas diversas métricas utilizadas demonstrou a
existência de padrões falsos de corte relacionados à história do processo de codificação do vídeo. Por
esta razões, as análises das informações codificadas para detecção das tomadas de câmera procuram identificar padrões estabelecidos pelo processo de codificação, considerados assinaturas dos codificadores. Para distinção entre quadros com características de corte, de quadros com características influenciadas pelo codificador, são propostas filtragens para suavizar a influência dessas assinaturas nos valores obtidos pelas métricas de caracterização de similaridade. / [en] This works presents a proposal for finding shot cuts in
MPEG-1 and
MPEG-2 videos. The proposed approach is based on
heuristics for eliminating
similar frames and thus extracting a set of frames
positioned at cuts points. These
heuristics analyze the compressed data, retrieved from
MPEG video streams,
without any decompression, thus saving time and space
during the shot finding
process. The existence of false cut patterns is noticed by
studying the data
returned by the chosen metrics. In face of such false
positives (related to choices
made during the history of the video encoding process),
the analysis of the
compressed data tries to identify patterns in the encoded
stream, considered as
compressor signatures. To distinguish between cut frames
and frames
characterized by the encoding process, some filters are
proposed in order to
alleviate the compressor influence on the similarity
metrics results.
|
Page generated in 0.0441 seconds