• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 20
  • Tagged with
  • 56
  • 56
  • 55
  • 13
  • 10
  • 10
  • 8
  • 8
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

[pt] TRABALHO MEDIADO POR PLATAFORMAS DIGITAIS: PROTEÇÃO AO TRABALHO ENQUANTO DUPLA FONTE DE VALOR / [en] WORK MEDIATED BY DIGITAL PLATFORMS: PROTECTION TO WORK AS A DUAL SOURCE OF VALUE

LUIZA NUNES LEMOS 12 May 2023 (has links)
[pt] A prestação de serviços por meio de plataformas digitais tem impactado diretamente os modos de organização do trabalho na sociedade, que vem dividindose entre buscar uma aplicação irrestrita do Direito do Trabalho ou defender a sua completa desregulação, sob a justificativa de não impedir o desenvolvimento. Há uma lacuna na pesquisa acadêmica e no debate na sociedade quanto a formas de proteção ao trabalhador de plataformas sob uma ótica externa ao Direito do Trabalho, que seja capaz de explicar e abordar tal fenômeno como um todo. A presente dissertação tem como objetivo responder se as categorias tradicionais do Direito do Trabalho são suficientes para, isoladamente, garantir os direitos fundamentais do trabalhador que presta serviços por meio de plataformas digitais, partindo das características fundamentais do presente contexto histórico, como mediação por algoritmos, extração massiva de dados e vigilância constante, e da importância do Direito do Trabalho. A pesquisa terá como marco teórico a descrição do capitalismo de vigilância de Shoshanna Zuboff, do corpo como elemento central do contrato de trabalho de Alain Supiot e de desenvolvimento como liberdade de Amartya Sen. Tendo por base tais marcos, se buscará um diagnóstico atual e coerente do sistema no qual se desenvolve o trabalho desempenhado nas plataformas digitais, uma análise crítica das bases que estruturam o Direito do Trabalho e uma resposta multidisciplinar ao problema de como garantir proteção ao trabalho por meio de plataformas digitais enquanto dupla fonte de valor. O objetivo é buscar soluções que garantam o desenvolvimento das capacidades humanas e da condição de agente destas, sabendo que são, em última análise, a justificativa para e existência e atuação do Estado. / [en] The provision of services through digital platforms has directly impacted the ways of organizing work in society, which has been divided between seeking an unrestricted application of labor law or defending its complete deregulation, on the grounds of not hindering development. There is a gap in academic research and debate in society regarding ways of protecting workers from digital platforms from an external perspective to Labor Law, which may be able to explain and address this phenomenon as a whole. This work aims to answer whether the traditional categories of Labor Law are enough to, in isolation, protect the fundamental rights of the worker who provides services through digital platforms, starting from the main characteristics of this historical context, such as mediation by algorithms, massive data extraction and continuous surveillance, and the relevance of Labor Law. The theoretical framework adopted is the description of surveillance capitalism of Shoshanna Zuboff, Alain Supiot s concept of the body as a central element of employment contract and the notion of development as freedom of Amartya Sen. Based on these milestones, the work seeks for a current and coherent diagnosis of the system in which the work mediated by digital platforms is developed, a critical analysis of the bases that structure labor law and a multidisciplinary response to the problem of how to ensure protection to work through digital platforms as a double source of value. The objective is to find solutions that ensure the development of human capacities and their agent status, knowing that they are ultimately the justification for the existence and action of the State.
22

[en] MULTIPLE IMPUTATION IN MULTIVARIATE NORMAL DATA VIA A EM TYPE ALGORITHM / [pt] UM ALGORITMO - EM - PARA IMPUTAÇÃO MÚLTIPLA DE DADOS CENSURADOS

FABIANO SALDANHA GOMES DE OLIVEIRA 05 July 2002 (has links)
[pt] Construímos um algoritmo tipo EM para estimar os parâmetros por máxima verossimilhança. Os valores imputados são calculados pela média condicional sujeito a ser maior (ou menor) do que o valor observado. Como a estimação é por máxima verossimilhança, a matriz de informação permite o cálculo de intervalos de confiança para os parâmetros e para os valores imputados. Fizemos experiência com dados simulados e há também um estudo de dados reais (onde na verdade a hipótese de normalidade não se aplica). / [en] An EM algorithm was developed to parameter estimation of a multivariate truncate normal distribution. The multiple imputation is evaluated by the conditional expectation becoming the estimated values greater or lower than the observed value. The information matrix gives the confident interval to the parameter and values estimations. The proposed algorithm was tested with simulated and real data (where the normality is not followed).
23

[en] MAPPING SEISMIC EVENTS USING CLUSTERING-BASED METHODOLOGIES / [pt] MAPEAMENTO DE EVENTOS SÍSMICOS BASEADO EM ALGORITMOS DE AGRUPAMENTO DE DADOS

AURELIO MORAES FIGUEIREDO 29 June 2016 (has links)
[pt] Neste trabalho apresentamos metodologias baseadas em algoritmos de agrupamento de dados utilizadas para processamento de dados sísmicos 3D. Nesse processamento, os voxels de entrada do volume são substituídos por vetores de características que representam a vizinhança local do voxel dentro do seu traço sísmico. Esses vetores são processados por algoritmos de agrupamento de dados. O conjunto de grupos resultantes é então utilizado para gerar uma nova representação do volume sísmico de entrada. Essa estratégia permite modelar a estrutura global do sinal sísmico ao longo de sua vizinhança lateral, reduzindo significativamente o impacto de ruído e demais anomalias presentes no dado original. Os dados pós-processados são então utilizados com duas finalidades principais: o mapeamento automático de horizontes ao longo do volume, e a produção de volumes de visualização destinados a enfatizar possíveis descontinuidades presentes no dado sísmico de entrada, particularmente falhas geológicas. Com relação ao mapeamento de horizontes, o fato de as amostras de entrada dos processos de agrupamento não conterem informação de sua localização 3D no volume permite uma classificação não enviesada dos voxels nos grupos. Consequentemente a metodologia apresenta desempenho robusto mesmo em casos complicados, e o método se mostrou capaz de mapear grande parte das interfaces presentes nos dados testados. Já os atributos de visualização são construídos através de uma função auto-adaptável que usa a informação da vizinhança dos grupos sendo capaz de enfatizar as regiões do dado de entrada onde existam falhas ou outras descontinuidades. Nós aplicamos essas metodologias a dados reais. Os resultados obtidos evidenciam a capacidade dos métodos de mapear mesmo interfaces severamente interrompidas por falhas sísmicas, domos de sal e outras descontinuidades, além de produzirmos atributos de visualização que se mostraram bastante úteis no processo de identificação de descontinuidades presentes nos dados. / [en] We present clustering-based methodologies used to process 3D seismic data. It firstly replaces the volume voxels by corresponding feature samples representing the local behavior in the seismic trace. After this step samples are used as entries to clustering procedures, and the resulting cluster maps are used to create a new representation of the original volume data. This strategy finds the global structure of the seismic signal. It strongly reduces the impact of noise and small disagreements found in the voxels of the entry volume. These clustered versions of the input seismic data can then be used in two different applications: to map 3D horizons automatically and to produce visual attribute volumes where seismic faults and any discontinuities present in the data are highlighted. Concerning the horizon mapping, as the method does not use any lateral similarity measure to organize horizon voxels into clusters, the methodology is very robust when mapping difficult cases. It is capable of mapping a great portion of the seismic interfaces present in the data. In the case of the visualization attribute, it is constructed by applying an auto-adaptable function that uses the voxel neighboring information through a specific measurement that globally highlights the fault regions and other discontinuities present in the original volume. We apply the methodologies to real seismic data, mapping even seismic horizons severely interrupted by various discontinuities and presenting visualization attributes where discontinuities are adequately highlighted.
24

[en] COMPARISON OF DIFFERENT APPROACHES FOR DETECTION AND TREATMENT OF OUTLIERS IN METER FACTORS DETERMINATION / [pt] COMPARAÇÃO DE DIFERENTES TÉCNICAS PARA DETECÇÃO E TRATAMENTO DE OUTLIERS NA DETERMINAÇÃO DE FATORES DE MEDIDORES

ANDERSON LUIZ DOS SANTOS FERREIRA 20 February 2018 (has links)
[pt] O objetivo da dissertação é analisar o comportamento das diferentes metodologias utilizadas para detecção e tratamento de outliers na determinação de fatores de prova de medidores do tipo turbina. A motivação desse trabalho é evitar tomadas de decisão equivocadas decorrentes de tratamento inadequado de outliers, comprometendo a confiabilidade na medição e consequentemente seu faturamento. A prova do fator de medidor pode ser considerada como um parâmetro de calibração, expressando a razão entre o volume de referência e o volume total de líquido que passa através do medidor. A Norma internacional recomenda o teste de Dixon para o tratamento de outliers para um conjunto de prova do fator de medidor. No entanto, a literatura é explícita quanto à avaliação do comportamento dos dados, a priori. A metodologia avalia se o comportamento dos dados do conjunto de prova do fator de medidor é Gaussiano, em seguida se comparam diferentes abordagens paramétricas e não paramétricas para a detecção e tratamento de outliers aplicados às provas dos fatores de medidores do tipo turbina para a transferência de custódia de gás liquefeito de petróleo. Posteriormente, este efeito é avaliado em relação ao número de outliers e como este manuseio afeta os critérios da amplitude variável para a incerteza expandida na prova do fator de medidor médio. Os resultados mostram que diferentes fatores de medidores médios podem ser alcançados para cada teste paramétrico e não paramétrico; de qualquer forma, conclui-se que estatisticamente não é observada diferença significativa entre eles. / [en] The objective of the dissertation is to analyze the behavior of the different methodologies used for the detection and treatment of outliers in the determination of meter proving factors of turbine type meters. The motivation of this work is to avoid mistaken decision-making as a result of inadequate treatment of outliers, compromising reliability in measurement and consequently its billing. A meter proving factor can be considered as a calibration parameter, by expressing the ratio the reference volume and the gross volume of liquid passed through a meter. The international guideline recommends Dixon s test for outliers to a meter proving factor set. However, the literature is explicit regarding the evaluation of data behavior, a priori. The methodology evaluates if the behavior of the meter proving factor set is Gaussian, then different parametric and nonparametric approaches for detection and treating outliers applied to turbine meter proving factors for custody transfer of liquefied petroleum gas are compared. Afterwards, this effect is evaluated in relation to the number of outliers and how this handling affects the variable range criteria for expanded uncertainty in average meter proving factor. The results show that different average meter factors can be reached for each nonparametric and parametric test; anyway, it is concluded that no statistically significant difference between them is noticed.
25

[en] UNIVARIATE TECHNIQUES PERFECTED FOR THE ELECTRIC LOAD FORECAST OF SHORT STATED PERIOD FROM HOURLY DATA / [pt] TÉCNICAS UNIVARIADAS APERFEIÇOADAS PARA A PREVISÃO DE CURTÍSSIMO PRAZO PARTIR DE DADOS HORÁRIOS

GLAUCIA DE PAULA FALCO 20 April 2006 (has links)
[pt] O ONS (operador nacional do sistema elétrico brasileiro) vem utilizando o software ANNSTLF produzido pelo EPRI/EUA (Eletrical Power Research Institute) para realizar a previsão do consumo de carga horária. Entretanto, as estimativas fornecidas pelo programa estão fundamentadas na metodologia de uma rede neural que, de certo modo, impede ao usuário de extrair uma maior interpretação dos resultados que são fornecidos pela rede. Assim sendo, este trabalho pesquisou os métodos univariados convencionais: Holt-Winters e Box e Jenkins, considerando suas formulações aperfeiçoadas e adaptadas às características próprias do tipo de série em questão. Isto é, assumindo a existência de dois ciclos sazonais: um diário e outro semanal. A vantagem destas técnicas univariadas, em comparação ao ANNSTLF, é principalmente a interpretabilidade das informações obtidas. Dessa forma, esta pesquisa permite também avaliar melhor o desempenho do ANNSTLF. / [en] The ONS (National Operator of the Brazilian electrical system) has been using the software ANNSTLF produced by EPRI/USA (Eletrical Power Research Institute) to carry out the forecast of the hourly load consumption. However, the estimates supplied by the program are based on the methodology of a neural net that, in a way, does not allow the user to extract a better interpretation of the results produced by the net. Therefore, investigates the conventional univaried methods: Holt-Winters and Box & Jenkins, considering its formulations perfected and adapted to the characteristics of the series understudy. That is, its assumed the existence of two seasonal cicles: daily and weekly. The advantage of these univariate techniques, in comparison to the ANNSTLF, is mainly the ability to interpret the model estimates. Also, this research also allows a better evaluation the performance of the ANNSTLF.
26

[en] ESTIMATES OF VOLUMETRIC CURVATURE ATTRIBUTES IN SEISMIC DATA / [pt] ESTIMATIVAS DE ATRIBUTOS VOLUMÉTRICOS DE CURVATURA EM DADOS SÍSMICOS

LEONARDO DE OLIVEIRA MARTINS 24 September 2018 (has links)
[pt] Atributos de curvatura são uma importante ferramenta para visualização e interpretação de feições estruturais em dados sísmicos. Tais medidas podem realçar falhas e fraturas sutis que não estavam evidentes no dado de amplitude, fornecendo ao intérprete informações importantes para a construção do modelo geológico da área de interesse. Neste trabalho é apresentado um método para estimar atributos de curvatura volumérica em dados sísmicos empilhados. A partir do dado de amplitude, é computado um atributo identificador de horizonte, o qual permite que horizontes sísmicos sejam representados como superfícies de nível. Dessa maneira, o gradiente desse atributo fornece uma representação coerente do campo de normais do volume. Fórmulas para o cálculo de curvatura em superfícies implícitas são usadas para obter vários atributos de curvatura úteis na delineação e predição de importantes feições estratigráficas. Testes realizados com dados sintéticos e reais mostram que o método proposto é capaz de fornecer estimativas coerentes de atributos de curvatura a um baixo custo de processamento. São avaliados três atributos identificadores de horizontes: fase instantânea, derivada vertical e atributo de ridges. / [en] Curvature attributes are powerful tools for visualization and interpretation of structural features in seismic data. Such measures may highlight faults and subtle fractures that were not evident in amplitude data, providing important information to the interpreter to build the geological model of the area of interest. This paper presents a method for estimating volumetric curvature attributes in post-stack seismic data. Using amplitude volume, an horizon identifier attribute is computed, in order to represent seismic horizons as level surfaces. Thus, the gradient of this attribute provides a coherent estimate of volumetric normal field. Formulas for the calculation of curvature in implicit surfaces are used to compute several curvature attributes useful in the delineation and prediction of important stratigraphic features. Tests with synthetic and real data show that the proposed method is able to provide consistent estimates of attributes of curvature at low cost processing. Three horizon identifer attributes are evaluated: instantaneous phase, vertical derivative and ridge attribute.
27

[en] SOCCER CHAMPIONSHIP PROBABILITS ESTIMATION / [pt] ESTIMAÇÃO DE PROBABILIDADES EM CAMPEONATOS DE FUTEBOL

EDUARDO LIMA CAMPOS 26 October 2001 (has links)
[pt] Neste trabalho, apresentamos uma metodologia para obter probabilidades de classificação e rebaixamento de equipes em campeonatos de futebol. A metodologia consiste basicamente em quatro etapas. Na primeira etapa, ajustamos modelos de séries temporais para dados de contagem a séries de gols a favor e sofridos pelas equipes em partidas sucessivas do campeonato, utilizando variáveis explicativas para considerar o efeito do mando de campo, da participação de determinados jogadores e de mudanças de técnico. Alguns problemas referentes à construção de intervalos de confiança e testes de hipóteses para os hiperparâmetros dos modelos foram solucionados via bootstrap. Na segunda etapa, obtivemos as distribuições de probabilidade associadas aos resultados das partidas futuras do campeonato, utilizando o Princípio da Máxima Entropia para combinar as distribuições preditivas dos modelos ajustados. Na terceira etapa, utilizamos as distribuições dos resultados das partidas futuras para simular cenários para o campeonato e, na quarta e última etapa, estimamos as probabilidades de classificação e rebaixamento das equipes, pela freqüência relativa da ocorrência destes eventos em um grande número de cenários gerados. A metodologia foi aplicada no Campeonato Brasileiro/1999 e na Copa João Havelange/2000. / [en] In this thesis, we develop a methodology to obtain the probabilities of qualifying and relegating of teams, in soccer championships. The methodology consists of four steps. In the first step, we fit time series models to the series of number of goals scored in soccer matches. We account for the effects of playing at home, soccer players and changes of coaches, by introducing explanatory variables. Confidence intervals and hipothesis tests are obtained by bootstrap. In the second step, we get probability distributions of the future matches results, by combining preditive distributions of the fitted models via the Maximum Entropy Principle. In the third step, we use the distributions of the matches results to generate simulation sceneries for the champhionship. In the forth and last step, we finally estimate the probabilities of qualifying and relegating of the teams, through the relative frequencies of these events, in a great number of sceneries generated. The empirical work was carried out using data from Brazilian Champhionship/1999 and João Havelange Cup/2000.
28

[en] FAULT MESHING GENERATION IN SEISMIC DATA BY COMPETITIVE LEARNING / [pt] GERAÇÃO DE MALHAS DE FALHAS EM DADOS SÍSMICOS POR APRENDIZADO COMPETITIVO

MARCOS DE CARVALHO MACHADO 10 July 2008 (has links)
[pt] O mapeamento manual de falhas em dados sísmicos tridimensionais é uma tarefa que consome muito tempo do intérprete. Uma grande quantidade de atributos sísmicos tem sido proposta para realçar medidas de descontinuidades associadas com as falhas. Entretanto, as falhas vistas através desses atributos aparecem mais como tendências do que como superfícies contínuas bem definidas, o que torna difícil a automatização da construção de modelos de falhas. Esta tese explora técnicas de Aprendizado Competitivo aplicadas aos problemas de extração e visualização de falhas em dados sísmicos. A estratégia proposta parte de um atributo de falha previamente calculado e consiste de três etapas. Na primeira, os dados tridimensionais uniformemente amostrados do atributo de falha são convertidos em um grafo com uso do algoritmo de aprendizado competitivo Growing Neural Gas. Na segunda etapa, o grafo sofre um processo de segmentação de forma a extrair um conjunto de subgrafos, cada um compatível com uma superfície de falha. Na terceira etapa, é utilizado o algoritmo Malhas Neurais Abertas para construir uma malha triangular para cada uma das superfícies identificadas. Malhas Neurais Abertas é um algoritmo de Aprendizado Competitivo que é proposto nesta tese, o qual constrói uma malha a partir de uma função de probabilidades com topologia de uma superfície aberta sem buracos. Exemplos com dados bidimensionais e tridimensionais, sintéticos e reais, são apresentados. Outra aplicação de Aprendizado Competitivo introduzida nesta tese é a geração de malhas geológicas, isto é, malhas que podem ser utilizadas na simulação do comportamento de fluidos em subsuperfície. / [en] Manual fault mapping from 3D seismic data is a time-consuming task. A plethora of seismic attributes has been proposed to enhance the discontinuity measures associated with faults. However, faults viewed through these attributes appear more like trends than well-defined, continuous surfaces, posing obstacles to the automation of the fault modeling process. This thesis explores the use of Competitive Learning techniques in fault extraction and visualization. The proposed strategy starts with a pre-computed fault attribute and consists of three steps. In the first, the uniformly sampled 3D fault attribute data are converted into a graph using Growing Neural Gas, a Competitive Learning algorithm. In the second step, the graph is submitted to a segmentation process in order to extract a set of subgraphs, each one compatible with a fault surface. In the third step, the Open Neural Meshes algorithm is used to build a triangulated mesh for each previously identified surface. Open Neural Meshes is a Competitive Learning algorithm proposed in this thesis, which builds a mesh from a probability function with no-hole open surface topology. Examples with 2D and 3D, synthetic and real data are presented. Another Competitive Learning application introduced in this thesis is the generation of geologic meshes. These meshes can be used to simulate fluid flows in subsurface reservoirs.
29

[en] RADIO SIGNAL PREDICTIONS FOR INDOOR LOCATIONS WITH TRANSMITTER IN MICROCELLULAR ENVIRONMENT / [pt] PREDIÇÃO DE COBERTURA PARA O INTERIOR DAS EDIFICAÇÕES COM TRANSMISSORES EM AMBIENTES MICROCELULARES

JASON PAULO TAVARES FARIA JUNIOR 22 July 2003 (has links)
[pt] Neste trabalho, um - software - foi desenvolvido para prover predições do sinal em ambientes exteriores e interiores. O programa inclui dois diferentes modelos de propagação. Para situações urbanas com antenas baixas (Microcélulas) e para situações urbanas onde o receptor pode ser posicionado numa área - indoor - e o transmissor numa área urbana ( - outdoor -). O procedimento automatizado combina técnicas de várias diferentes disciplinas, incluindo computação gráfica e teoria eletromagnética assintótica, para reduzir o tempo de computação sem comprometer a precisão. Usando técnicas de computação gráfica, o tempo necessário para o lançamento de raios através da geometria urbana é grandemente reduzido. Os dados teóricos foram testados e validados por comparação com dados experimentais. Para modelar os diferentes mecanismos de propagação, a aproximação eletromagnética usada foi a OG/UTD. / [en] In this work, a software tool has been developed that provides accurate, sitespecific radio signal predictions for outdoor to indoor/outdoor locations. The program includes two different propagation models. For urban calculations with low antennas (Microcells) and for urban situations where receiver can be located at indoor area and transmitter antennas can be located at Urban area (outdoor). The software combines techniques from several different disciplines, including computer graphics and asymptotic electromagnetic theory, to reduce the calculation time without compromising accuracy. Using computer graphics techniques, the time necessary for shooting the rays through the urban geometry is greatly reduced. The calculation engine used has been tested and validated by comparison with measured data. In order to model the diferent propagation mechanisms, the eletromagnetic approach considered has been the GO/UTD combination.
30

[pt] SEGMENTAÇÃO DE VÍDEO NO DOMÍNIO COMPRIMIDO BASEADA NA HISTÓRIA DA COMPACTAÇÃO / [en] VIDEO SEGMENTATION IN THE COMPRESSED DOMAIN BASED ON THE COMPRESSION HISTORY

CRISTINA NADER VASCONCELOS 26 December 2005 (has links)
[pt] Este trabalho apresenta uma proposta de solução do problema de deteção de tomada de câmera de vídeos MPEG-1 e MPEG-2. A abordagem proposta está baseada na aplicação de diversas heurísticas para eliminação de quadros semelhantes, de forma a extrair um conjunto de quadros que representam os cortes entre tomadas de câmera vizinhas. Essas heurí­sticas analisam informações no domínio compactado, obtidas diretamente do fluxo de dados codificado dos ví­deos, como forma de eliminar o processo de descompressão MPEG e diminuir o volume de dados manipulados durante a análise. A observação dos valores assumidos pelas diversas métricas utilizadas demonstrou a existência de padrões falsos de corte relacionados à história do processo de codificação do ví­deo. Por esta razões, as análises das informações codificadas para detecção das tomadas de câmera procuram identificar padrões estabelecidos pelo processo de codificação, considerados assinaturas dos codificadores. Para distinção entre quadros com características de corte, de quadros com características influenciadas pelo codificador, são propostas filtragens para suavizar a influência dessas assinaturas nos valores obtidos pelas métricas de caracterização de similaridade. / [en] This works presents a proposal for finding shot cuts in MPEG-1 and MPEG-2 videos. The proposed approach is based on heuristics for eliminating similar frames and thus extracting a set of frames positioned at cuts points. These heuristics analyze the compressed data, retrieved from MPEG video streams, without any decompression, thus saving time and space during the shot finding process. The existence of false cut patterns is noticed by studying the data returned by the chosen metrics. In face of such false positives (related to choices made during the history of the video encoding process), the analysis of the compressed data tries to identify patterns in the encoded stream, considered as compressor signatures. To distinguish between cut frames and frames characterized by the encoding process, some filters are proposed in order to alleviate the compressor influence on the similarity metrics results.

Page generated in 0.0441 seconds