• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5061
  • 1049
  • 194
  • 48
  • 39
  • 39
  • 37
  • 28
  • 23
  • 16
  • 16
  • 14
  • 14
  • 8
  • 2
  • Tagged with
  • 6420
  • 2588
  • 714
  • 701
  • 683
  • 537
  • 463
  • 428
  • 424
  • 418
  • 410
  • 408
  • 404
  • 400
  • 359
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

K − vecino más próximos en una aplicación de clasificación y predicción en el Poder Judicial del Perú

Quezada Lucio, Nel January 2017 (has links)
Busca encontrar modelos utilizando el método de los k−vecinos más próximos con el propósito de clasificar las 31 Cortes Superiores de Justicia del País y poder realizar predicciones para futuras Cortes Superiores de Justicia. Verifica la validez del modelo de clasificación y predicción de las Cortes Superiores de Justicia basado en el método de los k-vecinos más próximos. Verifica la precisión del modelo de k-vecinos más próximo cuando se tiene muestras pequeñas de entrenamiento y reserva. Experimenta los modelos que identifica y evalúa las 31 Cortes Superiores de Justicia, respecto de los predictores en forma a priori. Encuentra un modelo de agrupamiento jerárquico basado en encadenamiento simple para asociar las Cortes Superiores de Justicia del País en conglomerados. / Tesis
32

Diagnóstico y mejora de procesos utilizando simulación de eventos discretos en una empresa de consumo masivo

Vilchez Marcos, Franko Rafael 17 August 2015 (has links)
El trabajo de investigación es una aplicación de simulación de eventos discretos, cuyo objetivo es incrementar la productividad y rentabilidad del proceso de elaboración y envasado de galletas de una empresa de consumo masivo. En el primer capítulo, se presentan las técnicas de muestreo aleatorio estratificado y diseño de experimentos fraccionados, las cuales se utilizan para analizar los datos de entrada y salida de los modelos de simulación respectivamente; así como también, dos casos de aplicación afines. En el segundo capítulo, se desarrolla la etapa de descripción y diagnóstico. En ella, utilizando los objetivos estratégicos de la compañía como criterios de evaluación, se elige a la tercera línea de elaboración y envasado de galletas como objeto de estudio. Asimismo, se identifican sus principales problemas, y se plantean y seleccionan las contramedidas adecuadas. En el tercer capítulo, se presenta la construcción del modelo de simulación base, su validación y la propuesta de mejora. Esta última consiste en diseñar un balance de línea eficiente para el proceso de envasado, utilizar nuevas y constantes velocidades de operación, previamente optimizadas, y sustituir dos operarios encargados de la alimentación manual de galletas de bajo nivel de experticia por unos estables; e invertir en la compra e implementación de dos nuevas envasadoras. De esta manera, se diseñan experimentos fraccionados y simulados con el fin de determinar la significancia de cada medida en la rentabilidad del proceso y sus niveles para maximizarla. Finalmente, se realiza la evaluación técnica y económica de la propuesta. En la primera, se demuestra que permite reducir el inventario de productos en proceso en 22.99% y 47.38% en el envasado primario y secundario respectivamente, disminuir el nivel de productos no conformes en 11.94%; así como también, evitar las continuas calibraciones y ajustes, y minimizar la duración y tiempo entre fallas imprevistas de equipos en las estaciones de trabajo donde se reemplazan las envasadoras primarias obsoletas. Mientras que, en la segunda, se comprueba la viabilidad económica del proyecto al obtener una Tasa Interna de Retorno (TIR) de 29.30% y un Valor Actual Neto (VAN) de S/. 1, 319,487.51 en un horizonte de cinco años. / Tesis
33

Backscatter coefficient estimation using highly focused ultrasound transducers

Panizo Ríos, Diego 26 May 2014 (has links)
The backscatter coefficient (BSC) is an intrinsic property that quantifies the amount of energy that is reflected by a material as function of the ultrasound wave frequency. BSCs have been proposed for decades for tissue characterization, along with quantitative ultrasound (QUS) parameters derived from BSCs that have been used to construct images that represent how these properties vary spatially. The availability of formulations based on weakly focusing conditions has resulted in a widespread use of large focal number transducers for BSC estimation. The use of highly focused transducers offers the possibility of improving the spatial resolution of BSC-based imaging. The model by Chen et al. [1] was developed for estimating BSCs using transducers of arbitrary focal number. However, to this date only preliminary experimental validation of this method has been performed. The goals of the present study are to analyze for the first time the accuracy of Chen’s [1] method when estimating BSCs using highly focused transducers through both simulations and experiments, and to analyze the accuracy on the estimation of QUS parameters derived from BSCs (specifically the effective scatterer size (ESD) and concentration (ESC)) applying the Chen et al. [1] model. To achieve these goals, a theoretical model of BSC synthesis based on the method of Chen et al. [1]. was derived and used with simulated data. The model considers frequency dependent diffraction patterns, and the scatterers in the synthetic data replicate the properties of solid spheres. In experiments, data obtained using highly focused transducers from a physical phantom containing glass beads was used. This experimental data was appropriately compensated for attenuation and transmission effects. The accuracy of Chen’s method was evaluated calculating the mean fractional error between the estimated and theoretical BSCs curves for both simulations and experiments. Also, the QUS parameters were estimated and compared with real known parameters. BSCs and QUS parameter estimates were obtained from regions of interest from both the transducer focus and throughout the transducer focal region. Finally, the sound speed and the transducer focus were varied in appropriate ranges when processing the data for the BSC and QUS values estimation in order to assess the robustness of the method to uncertainties in these parameters. The results showed that BSCs and QUS parameters can be accurately estimated using highly focused transducers if the appropriate model is used, with regions of interest not restricted to be centered at the focus but to the full extension of the -6-dB transducer focal region. It was also verified that well estimated parameters as the sound speed and transducer focus are necessary in order to obtain accurate BSCs and QUS parameters estimates. / Tesis
34

Uma abordagem de desenvolvimento de software lean e ágil com bases de dados evolutivas / A Lean and Agile Approach To Software Development With Continuous Databases (Inglês)

Mendes, Antonio Carlos de Mello 20 December 2018 (has links)
Made available in DSpace on 2019-03-30T00:33:26Z (GMT). No. of bitstreams: 0 Previous issue date: 2018-12-20 / Faced with a scenario of requirements instability in organizations, there was a valorization of the short-term iterative development with several initiatives of agile methods of the software engineering, through continuous feedback to deliver useful software with quality and easy adaptation to changes. Although in the case of continuous evolution of data schemas, some agile practices have emerged, which represent one of the great challenges for development teams that intend to adopt them. Thence, data quality surveys indicate that development teams need to fill a knowledge gap regarding database management skills, because this distance is inherent in changing a cultural paradigm regarding the different skills of these professionals. Also, changes in a data schema often influence the behavior of applications, as well when performed individually by the database administrator, they can hamper the deployment of new features with incremental software development. In this sense, this work presents a software development approach that combines a set of lean and agile principles and practices in order to evolve the database continually without burocracy, by using the database configuration management tool. Not only the definition of the approach, but also its validation were made through action-research cycles in a technology sector of a brazilian public company. Keywords: Agile methods. Lean software development. Evolutionary databases. Configuration management in databases / Diante de um cenário de instabilidade de requisitos nas organizações, houve uma valorização do desenvolvimento iterativo de curta duração com diversas iniciativas de métodos ágeis da engenharia de software, através de feedback contínuo para entrega de software útil com qualidade e de fácil adaptação a mudanças. Entretanto, em se tratando da evolução contínua de esquemas de dados algumas práticas ágeis emergiram, as quais representam um dos grandes desafios às equipes de desenvolvimento que pretendem adotá-las. Porquanto pesquisas de qualidade de dados indicam que equipes de desenvolvimento necessitam preencher uma lacuna de conhecimento em relação às habilidades da gerência de banco de dados, porque essa distância é inerente à mudança de um paradigma cultural quanto às diferentes habilidades desses profissionais. Mas também, as mudanças de um esquema de dados frequentemente influenciam o comportamento das aplicações, e quando executadas individualmente pelo administrador de banco de dados podem onerar a implantação de novas funcionalidades com o desenvolvimento incremental de software. Nesse sentido, este trabalho apresenta uma abordagem de desenvolvimento de software que combina um conjunto de princípios e práticas lean e ágeis, a fim de evoluir o banco de dados continuamente de forma enxuta e sem burocracia, inclusive com o uso de ferramenta de apoio à gestão de configuração do banco de dados. Não apenas a definição da abordagem, como também a sua validação foram feitas por meio de ciclos de pesquisa-ação em um setor de tecnologia de uma empresa pública brasileira. Palavras-chave: Métodos ágeis, Desenvolvimento de software enxuto, Bases de dados evolutivas, Gestão de configuração em bases de dados
35

ESPACIALIZAÇÃO DA EVAPOTRANSPIRAÇÃO DE REFERÊNCIA DIÁRIA NO ESPÍRITO SANTO

SARAIVA, G. S. 25 February 2014 (has links)
Made available in DSpace on 2018-08-01T23:26:44Z (GMT). No. of bitstreams: 1 tese_7523_38 - Dissertação - Giselle Sabadim Saraiva.pdf: 20887935 bytes, checksum: 524fcd5f540694700c3b77434c7e8de0 (MD5) Previous issue date: 2014-02-25 / O objetivo geral deste estudo foi comparar métodos de interpolação visando à espacialização da evapotranspiração de referência (ETo) diária, estimada pelo método de Penman-Monteith, no estado do Espírito Santo. Objetivou-se também, identificar se a variação espacial da ETo segue o mesmo comportamento nos períodos com baixa radiação e alta radiação. A área de estudo se localiza entre as latitudes 17° 52 e 21° 19 S e as longitudes 39° 38 e 41° 50 O, na região Sudeste do Brasil, com área total de 46.184,1 km². Foram selecionadas 15 estações meteorológicas automáticas do Instituto Nacional de Meteorologia (INMET) como base para interpolação e dez para a validação cruzada, sendo, oito estações pertencentes à empresa Fibria e duas estações do Centro de Previsão de Tempo e Estudos Climáticos (CPTEC/INPE). O período analisado nesse estudo foi uma série histórica diária de 2006 a 2012 (set/12), priorizando o uso de dados do período de 2010 a 2012. Foram utilizados três métodos de interpolação: o método geoestatístico Krigagem e os métodos determinísticos Inverso do Quadrado da Distância (IQD) e Spline. Três grupos de dados foram interpolados, o primeiro grupo com 75% das estações com radiação solar global 40% da Ra (radiação solar no topo da atmosfera), sendo caracterizado como Dias com baixa radiação relativa; o segundo grupo com 75% das estações com chuva < 10 mm, caracterizado como Dias com alta radiação relativa; e o terceiro grupo, designado Todos os Dias, com interpolação de todos os dias sem falhas comuns a todas as estações, no total de 78 dias. O interpolador IQD apresentou melhor desempenho na espacialização da variável ETo, para as três condições, representando assim, menor desvio e variação entre os valores da ETo estimada pela equação de Penman-Monteith e ETo estimada pelo método de interpolação IQD. O método IQD foi o que melhor se ajustou na espacialização da ETo em forma de mapas com média do total de dias usado em cada grupo, apresentando assim, menor variação da diferença percentual entre as interpolações com todas as estações (INMET, Fibria, CPTEC/INPE) e somente com as estações do INMET. O interpolador IQD se mostrou, portanto, como um bom método para a estimativa da variável evapotranspiração de referência diária nos locais onde não se dispõem de estações meteorológicas instaladas. A variação espacial da ETo segue o mesmo comportamento uniforme de distribuição de interpolação para os períodos com baixa radiação e alta radiação na superfície. Os valores estimados da ETo obtidos pelo método de interpolação IQD podem ser usados com confiança no manejo da irrigação.
36

Determinação da influência do comportamento da demanda na cadeia de suprimentos de uma indústria cimenteira/

Guarino Neto, Luigi January 2016 (has links)
Dissertação (Mestrado em Engenharia Mecânica) - Centro Universitário FEI, São Bernardo do Campo, 2016.
37

Métodos de decomposição aditiva em soluções fundamentais da elasticidade tridimensional e da teoria de placas finas / Methods on additive decompositions of elastic tridimensional and thin plates theory fundamental solutions

Lisbôa, Tales de Vargas January 2014 (has links)
A presente tese tem por objetivo o desenvolvimento de metodologias para a decomposição de soluções fundamentais da elasticidade tridimensional e da teoria de placas finas por intermédio de soluções fundamentais do mesmo operador diferencial. A diferença entre as soluções fundamentais utilizadas na decomposição é a simetria do tensor constitutivo de cada uma dessas soluções, cujas propriedades elásticas são diretamente proporcionais aos coeficientes da(s) equação(ões) diferencial(ais). O objetivo dessa decomposição é evitar um efeito conhecido como degeneração matemática. Esse efeito cria singularidades não regulares nessas soluções quando considerado altas simetrias, tanto na teoria de placas finas quanto na elasticidade tridimensional. Dois tipos de decomposições – cinemática e constitutiva – são apresentados e discutidos. Devido a relações hiperdefinidas, comprova-se que a decomposição via critérios cinemáticos é impossível. Mostra-se a possibilidade da decomposição constitutiva, via duas diferentes abordagens. Suas propriedades e particularidades bem como outros resultados são discutidos no decorrer do texto e são comparados, quando possível, com a literatura disponível. / The present thesis has as objective the development of a methodology for the decomposition of elastic tridimensional and thin plates fundamental solutions through fundamental solutions of the same differential operator. The difference between the fundamental solutions is the constitutive tensor symmetry of each solution, in which is directly proportional to the differential equation(s) coefficients. The objective of the decomposition is to avoid an effect known as mathematically degeneration. This effect creates non regular singularities in these solutions when high material symmetries are considered in the thin plate’s theory as well in the tridimensional elasticity. Two types of decompositions – kinematics and constitutive – are presented and discussed. Due to hyper-defined relationships, it is proved that the decomposition by kinematics criteria is impossible. It is also shown the possibility of the constitutive decomposition, by two different approaches. Their properties and particularities as well other results are discussed through the text and are compared, when possible, with the available literature.
38

Aplicação do método de Karl Fischer a materiais que só libertam água a temperaturas elevadas

Themudo, Marta Espregueira Cruz Freire January 1999 (has links)
No description available.
39

Implementação e optimização de metodologias de analise química de rolhas de cortiça

Silva, Quitéria Preciosa Moreira da January 2001 (has links)
No description available.
40

Um estudo computacional do modelo de Ising

Pinto, Filipa Susana Caldas January 1999 (has links)
Dissertação apresentada à Faculdade de Engenharia da Universidade do Porto para obtenção do grau de Mestre em Métodos Computacionais em Ciências e Engenharia, sob a orientação do Prof Dr. José António Matos Silva Duarte, Professor Catedrático do Departamento de Física da Faculdade de Ciências da Universidade do Porto

Page generated in 0.0349 seconds