• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 65
  • 12
  • 8
  • 1
  • Tagged with
  • 86
  • 53
  • 27
  • 19
  • 17
  • 17
  • 15
  • 14
  • 12
  • 11
  • 11
  • 11
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estimação robusta em processos de memória longa na presença de outliers aditivos

MOLINARES, Fabio Alexander Fajardo January 2007 (has links)
Made available in DSpace on 2014-06-12T18:03:33Z (GMT). No. of bitstreams: 2 arquivo7182_1.pdf: 965696 bytes, checksum: 847cf81b54f4a390cb83ef68ae88acf7 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2007 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O objetivo deste trabalho é propor uma metodologia para estimar os parâmetros que indexam o processo ARFIMA(p, d, q) (Hosking 1981) na presença de outliers aditivos. Para estimar d, é proposto um estimador robusto que é uma variante do popular estimador sugerido por Geweke & Porter-Hudak (1983) (GPH). A metodologia proposta faz uso da função de autocovariância amostral robusta, considerada por Ma & Genton (2000), para obtenção do estimador da função espectral do processo. Resultados numéricos evidenciam a robustez do estimador proposto na presença de outliers do tipo aditivo
2

Framework de estudio multi-capa para resiliencia de Internet chileno

Bachmann Espinoza, Ivana Francisca January 2017 (has links)
Magíster en Ciencias, mención Computación. Ingeniero Civil en Computación / Chile es un país que sufre regularmente catástrofes naturales como terremotos, tsunamis, aludes, etc. En condiciones de catástrofe mantener el funcionamiento de infraestructuras como las de telecomunicaciones puede significar un gran desafío. Dentro de estas el Internet es una pieza importante pues se ha transformado en la alternativa a las redes teléfonicas para comunicarse con otras personas y además permite tener acceso a información sobre los eventos que estén ocurriendo. Sin embargo estas mismas catástrofes pueden afectar de forma negativa el funcionamiento de Internet. Asimismo el funcionamiento de Internet puede verse dañado por otros eventos como ataques cibernéticos o fallos de equipos, cables, antenas, etc. Para mantener la red de Internet chilena en funcionamiento bajo cualquier evento primero hay que preguntarse ¿qué tan preparado se encuentra el Internet chileno para resistir fallos? a la capacidad de resistir fallos le llamamos robustez. Así, para responder la pregunta anterior es necesario estudiar la robustez del Internet chileno. Esto último requiere además contar con una caracterización de Internet en Chile, qué elementos son los que definen su estructura y cómo se comportan. Por ejemplo, el Internet chileno podría ser visto como aquella red que se compone por cables, fibras ópticas y diferentes instalaciones físicas distribuídas a lo largo del país, pues es a través de estos equipos que la información viaja de un lugar a otro. Sin embargo esto no necesariamente muestra si los usuarios tienen acceso a Internet, si acaso han perdido acceso al resto del mundo o si han perdido total o parcialmente la conexión dentro del país. Entonces se podría establecer que la red compuesta por conjuntos de redes IP es realmente lo que conocemos como Internet. Sin embargo esta red puede perder funcionalidad si cables o instalaciones físicas son dañadas, y viceversa. Así, la red de Internet realmente estaría compuesta por varias redes distintas interactuando entre sí, interacciones que generan comportamientos nuevos y distintos a los que cada red tuviese por si sola frente a los mismos fallos. La red de Internet es entonces una red multi-capa (también conocida como red multi-layer o redes interdependientes). En esta tesis se realizó una revisión sistemática de la literatura existente sobre frameworks de estudio de robustez de redes multi-layer, la cual consideró 57 artículos publicados entre los años 2005 y 2016. En esta revisión se encontraron 4 categorías mayores para clasificar los frameworks: Modelo de redes interdependientes, tipo de métrica para medir robustez, estudios realizados y redes usadas para testear el framework. A partir de la revisión sistemática en esta tesis se propone y justifica el uso de un determinado framework de estudio apropiado para el caso del Internet chileno. Finalmente se ofrece una forma de construir el sistema a partir de datos reales y una implementación en código para analizar el sistema. / Este trabajo ha sido parcialmente financiado por NIC Chile Research Labs y el Proyecto CORFO 15BPE-47225
3

Diagnóstico de influência para uma família de modelos de regressão para dados de taxas e proporções

ALENCAR, Francisco Hildemar Calixto de 03 February 2016 (has links)
Submitted by Irene Nascimento (irene.kessia@ufpe.br) on 2016-06-20T16:57:47Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertacao_Hildemar.pdf: 2038188 bytes, checksum: 0f6e076aa9b22564edadc07e4585d987 (MD5) / Made available in DSpace on 2016-06-20T16:57:47Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertacao_Hildemar.pdf: 2038188 bytes, checksum: 0f6e076aa9b22564edadc07e4585d987 (MD5) Previous issue date: 2016-02-03 / capes / Existem situações na modelagem estatística em que a variável de interesse é contínua e restrita no intervalo aberto (0, 1), tais como taxas e proporções. Esses tipos de variáveis tipicamente apresentam características de assimetria e heteroscedasticidade, sendo assim inapropriado o uso do modelo normal linear. Kieschnick e McCullough (2003) indicaram após estudos de diferentes estratégias para modelar tais variáveis, o uso do modelo de regressão beta. Contudo, Hahn (2008) e García et al. (2011) observaram que a distribuição beta não é apropriada para o caso em que há ocorrência de eventos extremos; isto é, eventos que possam ocorrer na cauda da distribuição. Com o intuito de obter maior flexibilidade no modelo de regressão beta, Bayes et al. (2012) propuseram o modelo de regressão beta retangular considerando a distribuição beta retangular proposta por Hahn (2008). Este modelo possui como casos particulares o modelo de regressão beta proposto por Ferrari e Cribari-Neto (2004) e o modelo de regressão beta com dispersão variável proposto por Smithson e Verkuilen (2006). Esta dissertação tem como proposta avaliar o uso das divergências Kullback-Leibler e χ 2 , bem como, das distâncias estocásticas Kullback-Leibler, χ 2 , Bhattacharyya, Hellinger, triangular e média-harmônica e da distância L1 norm na detecção de observações atípicas nos modelos de regressão beta e beta retangular. Com este fim, realizamos um estudo de simulação de Monte Carlo em que ajustamos, sob o enfoque Bayesiano esses dois modelos. Nesse estudo, observamos que a divergência χ 2 demonstrou maior eficiência, que as demais medidas, na detecção de observações atípicas. A introdução dos pontos atípicos foi feita em ambas as variáveis, dependente e regressora. Por fim, apresentamos uma aplicação utilizando o conjunto de dados AIS (Australian Institute of Sport). / There are situations in the statistical modeling where the interested variable is continuous and restricted in the open interval (0,1) as rates and proportions. This type of variables typically show characteristics of asymmetry and heterocedasticity, this way unappropriated the use of the linear normal model. Kieschnick e McCullough (2003) after studies of different strategies to model variables of rates and proportions indicate the use of the regression model based on the beta distribution. However, Hahn (2008) and García et al. (2011) observed which the beta distribution is not appropriated for case where there are events in the tail of the distribution. In order to obtain greater flexibility in the beta regression model Bayes et al. (2012) proposed the rectangular beta regression model based on rectangular beta distribution proposed by Hahn (2008). This model has as particular cases the beta regression model proposed by Ferrari e Cribari-Neto (2004) and the beta regression model with variable dispersion proposed by Smithson e Verkuilen (2006). This dissertation has the purpose of evaluate the use of divergences Kullback-Leibler and χ 2 as well of stochastic distances Kullback-Leibler, χ 2 , Bhattacharyya, Hellinger, triangular and média-harmônica, and distance L1 norm in detecting atypical points in beta regression model and beta rectangular regression model. To this end, we conducted a Monte Carlo simulation study in which fitted under the Bayesian approach, these two models. This study showed that the difference χ 2 demonstrated higher efficiency than the other measures, the detection of atypical observations.The introduction of atypical points was carried out in both variables, dependent and independent. Finally, we present an application using the set of AIS (Australian Institute of Sport).
4

Estudio de Modelos Discretos: Estructura y Dinámica

Salinas Ayala, Lilian Angélica January 2008 (has links)
En esta tesis hemos estudiado dos problemas: el primero consiste en encontrar condiciones mínimas para obtener una cierta clase de recubrimientos del plano discreto mediante cuadrados y el segundo corresponde al estudio de redes Booleanas. El problema de recubrimiento por cuadrados nace como una variante del problema de embaldosado. El problema de embaldosado consiste en cubrir el plano discreto, o una parte de éste, sin dejar hoyos y sin superponer baldosas con un número finito de formas distintas. El caso estudiado consiste en cubrir completamente el plano discreto usando sólo cuadrados que pueden superponerse, pero no pueden compartir bordes ni vértices (recubrimiento fuerte). Además, se estudia el caso donde se permite dejar zonas de tamaño acotado sin cubrir y donde todos los cuadrados en el recubrimiento deben estar conectados (recubrimiento débil). Hemos probado que, en el caso donde todos los cuadrados tienen el mismo tamaño e intersectan el mismo número de cuadrados, los recubrimientos fuertes y débiles presentan cotas inferiores para el tamaño y número de cuadrados que los intersectan. Además, para un tamaño de cuadrado dado, mostramos una cota superior de orden lineal para el número de cuadrados que lo intersectan en un recubrimiento sea fuerte o débil, El segundo problema trata de redes Booleanas, las que fueron introducidas por S. Kauffman (1969) con el objeto de modelar las redes de regulación génica. El primer aspecto estudiado son las redes Booleanas cuyo grafo asociado es por capas. Probamos que el comportamiento límite de este tipo de redes queda completamente determinado por el estado inicial de los nodos en la primera capa, y que los atractores de estas redes son de largo potencia de dos. Más aún, en el caso que todas las bucles sean monótonas crecientes todos los atractores son puntos fijos. El segundo aspecto estudiado es la robustez de la dinámica y del comportamiento límite de una red Booleana frente a distintos esquemas de actualización (paralelo, secuencial por bloques o secuencial). Cada esquema de actualización permite definir un grafo con signo, los resultados obtenidos prueban que si dos esquemas de actualización generan el mismo grafo con signo, estas redes tienen exactamente el mismo comportamiento dinámico. Por otro lado, dado que los puntos fijos son invariantes frente a los distintos esquemas de actualización, nos concentramos en estudiar cómo pequeños cambios en el esquema de actualización producen diferencias en el conjunto de ciclos dinámicos asociados a una red Booleana. Uno de los principales resultados es el que muestra que, dado un esquema de actualización es posible encontrar otro con el cual no comparte ciclos dinámicos. Por último, presentamos un algoritmo que opera como un filtro de ciclos dinámicos para redes Booleanas donde todos los circuitos son positivos. Dada una red Booleana, que tiene sólo circuitos positivos, este filtro permite encontrar en tiempo polinomial una nueva red Booleana que tiene exactamente los mismos puntos fijos, pero no tiene ningún ciclo dinámico. Este algoritmo permite, además, encontrar un punto fijo de la red Booleana en tiempo polinomial.
5

INDICADORES INTERNOS E EXTERNOS PARA ESTIMATIVA DA DIGESTIBILIDADE APARENTE DA MATÉRIA SECA EM OVINOS / Indicadores internos y externos de la estimación la digestibilidad aparente de la materia seca en ovejas / NTERNAL AND EXTERNAL INDICATORS FOR THE ESTIMATION OF DIGESTIBILITY OF DRY MATTER IN SHEEP

MATOS, Romário Ferreira de 21 February 2017 (has links)
Submitted by Maria Aparecida (cidazen@gmail.com) on 2017-04-12T12:36:08Z No. of bitstreams: 1 Romario ferreira de Matos.pdf: 289293 bytes, checksum: 6e794c84f3b40406735e5e1ba5ad15b4 (MD5) / Made available in DSpace on 2017-04-12T12:36:08Z (GMT). No. of bitstreams: 1 Romario ferreira de Matos.pdf: 289293 bytes, checksum: 6e794c84f3b40406735e5e1ba5ad15b4 (MD5) Previous issue date: 2017-02-21 / The objective of this study was to evaluate the accuracy and precision of the apparent dry matter digestibility estimates obtained using internal and external markers in sheep fed diets containing sugar-cane-tip hay or treated with urea or calcium. Also, it was evaluated the robustness of the markers in relation to the variation of dry matter intake (CMS) and the mean live weight (PV) of the animals. Were used 20 male, uncastrated, mestizos without defined breed pattern (SPRD) x Santa Inês, with a mean live weight of 29.64 ± 5.53 kg and age of approximately 12 months, in randomized block design, based on live weight. Estimates of total fecal dry matter yield and digestibility of DM and nutrients were performed using the method of total fecal collection and using internal markers, represented by the indigestible constituents MSi, FDNi and FDAi and the external indicator titanium dioxide (TiO2). Accuracy of the markers was evaluated by the mean bias, which is the difference between the value predicted by the indicator and the value observed by the total collection of feces, the most accurate indicator being considered, which presents a mean bias closer to zero. Precision, a measure of dispersion between predicted and observed values, represents the mean distance variability between these values and was evaluated by the mean square root of the prediction error. The robustness analysis of each indicator was performed by regressing the bias according to the CMS variables and PV. TiO2 presented a faecal recovery rate (TRF) of less than 100% and for the internal markers MSi, FDNi and FDAi. TRF was greater than 100%. There was a difference for the mean bias (P <0.05), which shows that there are differences in the markers regarding their accuracy for fecal yield estimates and, consequently, estimates of apparent dry matter digestibility (DMS) in sheep. The estimated of digestibility of dry matter (DMS) for internal markers MSi, FDNi and FDAi are recommended because the results obtained by these are not influenced by the CMS and PV. / Este estudio tuvo como objetivo evaluar la exactitud y precisión de las estimaciones de la digestibilidad materia seca aparente obtenida con el uso de indicadores internos y externos en ovejas alimentado con punta heno caña de azúcar sin tratar o tratado con urea u óxido de calcio. Además, se evaluó la robustez de los indicadores en relación con la variación del consumo de materia seca (CMS) y el peso vivo (PV) promedio animales. 20 ovejas machos se utilizaron patrón sin castrar sin mestizo raza definida (SPRD) x St. Agnes, con un peso promedio 29,64 ± 5,53 kg y envejecido aproximadamente 12 meses en el diseño de bloques al azar, con base en el peso viva. Las estimaciones de la producción total de materia seca fecal y la digestibilidad de la materia seca y los nutrientes se llevaron a cabo por el método de recogida de heces total y uso de indicadores internos, representados por los componentes indigeribles MSi, INDF y FDAi y dióxido de titanio indicador externo (TiO2), y los indicadores y tratamientos bloques de animales. La exactitud de los indicadores se evaluó por el sesgo de la media, que es el diferencia entre el valor predicho por el indicador y el valor observado por la colección total heces, se considera el indicador más precisa que la presente sesgo media más cerca de cero. La precisión, una medida de valores de dispersión entre el predicho y variabilidad observada es la distancia media entre estos valores y era evaluadas por la raíz cuadrada media del error de predicción. El análisis de robustez de cada indicador se realizó una regresión a las variables de polarización de función CMS y el peso corporal promedio. TiO2 mostró tasa de recuperación fecal (FRR) de menos de 100% y para el indicadores internos MSi, INDF y FDAi la TRF fue mayor que 100%. Hubo diferencias para el sesgo de la media (P <0,05), que no muestra ninguna diferencia como el indicador de su precisión para la estimación de la producción fecal y por lo tanto las estimaciones la digestibilidad de la materia seca (DMD) en bovinos. Los indicadores internos MSI INDF y FDAi se recomiendan para la estimación de la producción total de crudo y se seca fecal DM, ya que los resultados de estos no son CMS influenciada por el peso vivo del animal. / Objetivou-se avaliar a acurácia e precisão das estimativas da digestibilidade aparente da matéria seca obtidas com uso de indicadores internos e externos em ovinos alimentados com dietas contendo feno de ponta de cana-de-açúcar não tratado ou tratado com ureia ou óxido de cálcio. Também, foi avaliada a robustez dos indicadores em relação à variação do consumo de matéria seca (CMS) e ao peso vivo (PV) médio dos animais. Foram utilizados 20 ovinos machos, não castrados, mestiços sem padrão de raça definido (SPRD) x Santa Inês, com peso vivo médio 29,64±5,53 kg e idade de aproximadamente 12 meses, em delineamento em blocos ao acaso, com base no peso vivo. As estimativas da produção total de matéria seca fecal e da digestibilidade da MS e dos nutrientes foram realizadas pelo método da coleta total de fezes e com uso de indicadores internos, representados pelos constituintes indigestíveis MSi, FDNi e FDAi e do indicador externo dióxido de titânio (TiO2), sendo os indicadores os tratamentos e os animais os blocos. A acurácia dos indicadores foi avaliada pelo viés médio, que é a diferença entre o valor predito pelo indicador e o valor observado pela coleta total de fezes, sendo considerado o indicador mais acurado o que apresentar viés médio mais próximo de zero. A precisão, uma medida de dispersão entre os valores preditos e observados, representa a variabilidade média da distância entre esses valores e foi avaliada pela raiz quadrada média do erro de predição. A análise de robustez de cada indicador foi realizada regredindo-se o viés em função das variáveis CMS e peso vivo médio. O TiO2 apresentou taxa de recuperação fecal (TRF) inferior a 100% e para os indicadores internos MSi, FDNi e FDAi a TRF foi superior a 100%. Houve diferença para o viés médios (P<0,05), o que demonstra haver diferença dos indicadores quanto a sua acurácia para as estimativas da produção fecal e, consequentemente, das estimativas da digestibilidade aparente da matéria seca (DMS) em ovinos. Os indicadores internos MSi, FDNi e FDAi são recomendados para estimativas da produção total de matéria seca fecal e da digestibilidade da MS, pois os resultados obtidos por estes não são influenciados pelo CMS e peso vivo do animal.
6

Detecção de falhas através de dicotomia espaço-temporal

Monael Pinheiro Ribeiro 05 December 2012 (has links)
A presente tese propõe o desenvolvimento e teste de um modelo de monitoramento automático de informações físicas de um motor aeronáutico baseado em dados históricos. Este modelo tenta determinar falhas, observando não apenas o comportamento espacial, mas também o comportamento temporal. Para a detecção espacial utilizou-se a busca em intervalos ortogonais, através de estruturas de dados do tipo k-d tree e, para interpolar os pontos no espaço de busca, usou-se morfologia matemática. A detecção temporal emprega um autômato finito para reconhecer a linguagem que os pontos assinam, através de sua evolução por agrupamentos de pontos. Esses agrupamentos, por sua vez, são determinados pelo algoritmo k-means, e o valor de k é sistematicamente definido através da metaheurística Firefly, maximizando a avaliação diagnóstica do detector temporal. O modelo desenvolvido nesta tese apresenta precisão e robustez ao que se propõe. No contexto espacial, os elementos influenciadores (parâmetros de sensitividade, especificidade e os operadores morfológicos) foram estudados e equacionados, permitindo assim, a flexibilidade de tornar o modelo mais rigoroso ou moderado, conforme demanda a situação. Por sua vez, o contexto temporal, apresentou uma alta eficiência para detectar positivos. Além disso, a detecção temporal, através de autômatos finitos, apresentou capacidade de indicar qualitativamente a situação de uma base de aprendizado, ao detectar também os alarmes falsos; podendo assim ser empregado como avaliador qualitativo para essas bases.
7

Participação automática do espaço de estados de um MPC robusto para aplicação em tempo real

Diego Portela Senarezi 11 July 2013 (has links)
Uma forma de se possibilitar a aplicação em tempo real de técnicas de controle preditivo robusto (RMPC) em processos de dinâmica rápida de utilizar uma formulação que designa parte do esforço computacional para processos off-line. No caso do RMPC tratado neste trabalho a estratégia se vale do conceito de particionar o espaço de estados através de elipsoides invariantes assintoticamente estáveis para gerar uma sequência de matrizes de ganho de realimentação de modo off-line através de desigualdade matriciais lineares. Essas partições podem ser determinadas off-line e, assim, reduz-se o custo computacional necessário para execução em tempo real. Neste trabalho, apresenta-se um método para a obtenção de uma partição otimizada do espaço de estados que satisfaça estas condições necessárias para a utilização dessa estratégia off-line. O método é baseado no conceito de meta-heurísticas, mais especificamente em algoritmos genéticos, e busca garantir que a partição atenda as condições impostas ao mesmo tempo em que minimiza o custo da lei de controle. Sua utilização possibilitou a aplicação bem sucedida de uma lei de controle robusta em um estudo de caso envolvendo um helicóptero de bancada de três graus de liberdade.
8

Avaliação de redes neurais competitivas em tarefas de quantização vetorial: um estudo comparativo / Evaluation of competitive neural networks in tasks of vector quantization (VQ): a comparative study

Cruz, Magnus Alencar da 06 September 2007 (has links)
CRUZ, M. A. Avaliação de redes neurais competitivas em tarefas de quantização vetorial: um estudo comparativo. 2007. 119 f. Dissertação (Mestrado em Engenharia de Teleinformática) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2007. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2016-04-04T19:17:47Z No. of bitstreams: 1 2007_dis_macruz.pdf: 2517117 bytes, checksum: adcb9ff5b0dbd38bb2c584d29fbb70df (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2016-04-06T19:13:24Z (GMT) No. of bitstreams: 1 2007_dis_macruz.pdf: 2517117 bytes, checksum: adcb9ff5b0dbd38bb2c584d29fbb70df (MD5) / Made available in DSpace on 2016-04-06T19:13:24Z (GMT). No. of bitstreams: 1 2007_dis_macruz.pdf: 2517117 bytes, checksum: adcb9ff5b0dbd38bb2c584d29fbb70df (MD5) Previous issue date: 2007-09-06 / The main goal of this master thesis was to carry out a comparative study of the performance of algorithms of unsupervised competitive neural networks in problems of vector quantization (VQ) tasks and related applications, such as cluster analysis and image compression. This study is mainly motivated by the relative scarcity of systematic comparisons between neural and nonneural algorithms for VQ in specialized literature. A total of seven algorithms are evaluated, namely: K-means, WTA, FSCL, SOM, Neural-Gas, FuzzyCL and RPCL. Of particular interest is the problem of selecting an adequate number of neurons given a particular vector quantization problem. Since there is no widespread method that works satisfactorily for all applications, the remaining alternative is to evaluate the influence that each type of evaluation metric has on a specific algorithm. For example, the aforementioned vector quantization algorithms are widely used in clustering-related tasks. For this type of application, cluster validation is based on indexes that quantify the degrees of compactness and separability among clusters, such as the Dunn Index and the Davies- Bouldin (DB) Index. In image compression tasks, however, a given vector quantization algorithm is evaluated in terms of the quality of the reconstructed information, so that the most used evaluation metrics are the mean squared quantization error (MSQE) and the peak signal-to-noise ratio (PSNR). This work verifies empirically that, while the indices Dunn and DB or favors architectures with many prototypes (Dunn) or with few prototypes (DB), metrics MSE and PSNR always favor architectures with well bigger amounts. None of the evaluation metrics cited previously takes into account the number of parameters of the model. Thus, this thesis evaluates the feasibility of the use of the Akaike’s information criterion (AIC) and Rissanen’s minimum description length (MDL) criterion to select the optimal number of prototypes. This type of evaluation metric indeed reveals itself useful in the search of the number of prototypes that simultaneously satisfies conflicting criteria, i.e. those favoring more compact and cohesive clusters (Dunn and DB indices) versus those searching for very low reconstruction errors (MSE and PSNR). Thus, the number of prototypes suggested by AIC and MDL is generally an intermediate value, i.e nor so low as much suggested for the indexes Dunn and DB, nor so high as much suggested one for metric MSE and PSNR. Another important conclusion is that sophisticated models, such as the SOM and Neural- Gas networks, not necessarily have the best performances in clustering and VQ tasks. For example, the algorithms FSCL and FuzzyCL present better results in terms of the the of the reconstructed information, with the FSCL presenting better cost-benefit ratio due to its lower computational cost. As a final remark, it is worth emphasizing that if a given algorithm has its parameters suitably tuned and its performance fairly evaluated, the differences in performance compared to others prototype-based algorithms is minimum, with the coputational cost being used to break ties. / Esta dissertação tem como principal meta realizar um estudo comparativo do desempenho de algoritmos de redes neurais competitivas não-supervisionadas em problemas de quantização vetorial (QV) e aplicações correlatas, tais como análise de agrupamentos (clustering) e compressão de imagens. A motivação para tanto parte da percepção de que há uma relativa escassez de estudos comparativos sistemáticos entre algoritmos neurais e não-neurais de análise de agrupamentos na literatura especializada. Um total de sete algoritmos são avaliados, a saber: algoritmo K -médias e as redes WTA, FSCL, SOM, Neural-Gas, FuzzyCL e RPCL. De particular interesse é a seleção do número ótimo de neurônios. Não há um método que funcione para todas as situações, restando portanto avaliar a influência que cada tipo de métrica exerce sobre algoritmo em estudo. Por exemplo, os algoritmos de QV supracitados são bastante usados em tarefas de clustering. Neste tipo de aplicação, a validação dos agrupamentos é feita com base em índices que quantificam os graus de compacidade e separabilidade dos agrupamentos encontrados, tais como Índice Dunn e Índice Davies-Bouldin (DB). Já em tarefas de compressão de imagens, determinado algoritmo de QV é avaliado em função da qualidade da informação reconstruída, daí as métricas mais usadas serem o erro quadrático médio de quantização (EQMQ) ou a relação sinal-ruído de pico (PSNR). Empiricamente verificou-se que, enquanto o índice DB favorece arquiteturas com poucos protótipos e o Dunn com muitos, as métricas EQMQ e PSNR sempre favorecem números ainda maiores. Nenhuma das métricas supracitadas leva em consideração o número de parâmetros do modelo. Em função disso, esta dissertação propõe o uso do critério de informação de Akaike (AIC) e o critério do comprimento descritivo mínimo (MDL) de Rissanen para selecionar o número ótimo de protótipos. Este tipo de métrica mostra-se útil na busca do número de protótipos que satisfaça simultaneamente critérios opostos, ou seja, critérios que buscam o menor erro de reconstrução a todo custo (MSE e PSNR) e critérios que buscam clusters mais compactos e coesos (Índices Dunn e DB). Como conseqüência, o número de protótipos obtidos pelas métricas AIC e MDL é geralmente um valor intermediário, i.e. nem tão baixo quanto o sugerido pelos índices Dunn e DB, nem tão altos quanto o sugerido pelas métricas MSE e PSNR. Outra conclusão importante é que não necessariamente os algoritmos mais sofisticados do ponto de vista da modelagem, tais como as redes SOM e Neural-Gas, são os que apresentam melhores desempenhos em tarefas de clustering e quantização vetorial. Os algoritmos FSCL e FuzzyCL são os que apresentam melhores resultados em tarefas de quantização vetorial, com a rede FSCL apresentando melhor relação custo-benefício, em função do seu menor custo computacional. Para finalizar, vale ressaltar que qualquer que seja o algoritmo escolhido, se o mesmo tiver seus parâmetros devidamente ajustados e seus desempenhos devidamente avaliados, as diferenças de performance entre os mesmos são desprezíveis, ficando como critério de desempate o custo computacional.
9

Estimadores robustos en modelos de regresión noparamétricos funcionales y en modelos semi-funcionales parcialmente lineales

Vahnovan, Alejandra Valeria 18 March 2015 (has links)
En esta tesis se desarrollan estimadores robustos para la función de regresión en modelos noparamétricos funcionales que son equivariantes por escala, estudiando sus propiedades asintóticas, tales como consistencia fuerte y ordenes de convergencia. También se han desarrollado estimadores robustos para el parámetro de regresión y la función de regresión en modelos semi-funcionales parcialmente lineales. Bajo condiciones generales se obtienen resultados de consistencia y normalidad asintótica para los estimadores propuestos del parámetro de regresión y resultados de consistencia uniforme para los estimadores propuestos de la función de regresión. Estos resultados teóricos se completan con un estudio de simulación para evaluar el comportamiento de las propuestas robustas y clásicas frente a distintas desviaciones del modelo.
10

Projeto robusto e análise de incertezas em dispositivos ressonantes para coleta de energia / Robust design and uncertainty analysis in resonant energy harvesting devices

Martins, Paulo Henrique 22 February 2018 (has links)
O estudo das vibrações é importante para prevenir danos em equipamentos ou mesmo evitar catástrofes de grande natureza. Nesse sentido, aproveitar a energia que seria dissipada na vibração e contribuir no controle do sistema representa um grande avanço tecnológico. O termo Energy Harvesting (Colheita de Energia) está relacionado ao contexto do aproveitamento energético, utilizando sistema de conversão para transformação da energia em eletricidade. Através de um dispositivo com viga engastada e massa inercial na extremidade, é possível realizar o estudo de vibração e coleta de energia, ao se considerar uma estrutura piezelétrica acoplada na viga e conectada a um circuito elétrico com resistor. Estruturas inteligentes que atuam na conversão de energia mecânica em elétrica, ou vice-versa, são fundamentais para esse estudo, o que motiva a inclusão dos sensores piezelétricos no projeto de dispositivos estudados e sujeitos a vibrações. Por outro lado, otimizar parâmetros de projeto é fundamental para aumentar a amplitude de vibração e tornar o processo com maior desempenho, tendo em vista maior captação de energia. Ainda, parâmetros otimizados podem estar sujeitos a incertezas do projeto e variações, devido a flutuações ambientais, como temperatura, pressão, propriedades dos materiais, geometria, etc. Por isso, técnicas robustas que tornem os projetos menos sensíveis a variações são interessantes para serem abordadas. Embora métodos de projetos robustos sejam eficientes, poucas pesquisas têm sido feitas na área da dinâmica de vibrações e alguns processos podem demandar tempo computacional dependendo do estudo ou projeto. Este trabalho tem como propósito abordar um método específico de projeto robusto focado em uma metodologia com matrizes chamadas ortogonais. Além disso, o método determinístico via algoritmo de Programação Sequencial Quadrático (SQP) é utilizado. O trabalho consiste numa abordagem para coleta de energia em um modelo de viga engastada, otimizando parâmetros e inserindo incertezas no sistema para análise de robustez e verificação de comprimentos adequados de vigas para os dispositivos. Os resultados mostram um aumento da energia coletada, analisando funções de resposta em frequências para saída de potência, diante de uma entrada de deslocamento no engaste do dispositivo, projetado via otimização determinística, além de aumento de robustez de acordo com certos critérios considerando circuito elétrico com resistência corretamente selecionada. / The study of vibrations is important to prevent damage to equipment or even prevent major catastrophes. In this sense harvesting the energy that would otherwise be dissipated in vibration and contributing to the control of the system represents a great technological advance. The term Energy Harvesting is related to the context of energy use, using a conversion system to transform energy into electricity. Through a device with clamped beam and inertial mass at the end, it is possible to study the vibration and energy harvesting, considering a piezoelectric structure coupled to the beam and connected to a resistance electric circuit. Smart structures that act in the conversion of mechanical energy to electrical energy, or vice versa, are fundamental for this study, which motivates the inclusion of piezoelectric sensors in the design of studied devices and subject to vibrations. On the other hand, optimizing design parameters is fundamental to increase the amplitude of vibration and increase process performance, in view of greater power uptake. Furthermore, optimized parameters may be subject to design uncertainties and variations due to environmental fluctuations such as temperature, pressure, material properties, geometry, etc. Therefore, robust techniques that make designs less sensitive to variations are interesting to be addressed. Although robust design methods are efficient, few researches have been done in the area of vibration dynamics and some processes may require computational time depending on the study or project. This work aims to address a specific method of robust design focused on a methodology with matrices called orthogonal. In addition, the deterministic method using Sequential Quadratic Programming (SQP) algorithm is used. The work consists of an approach to harvest energy in a clamped beam model, optimizing parameters and inserting uncertainties in the system for robustness analysis and verification of adequate beam lengths for the devices. The results show an increase in the harvested energy, analyzing frequency response functions for power output, in the face of a displacement input in the device clamp, designed through deterministic optimization,besides increasing robustness according to certain criteria considering electric circuit with correctly selected resistance.

Page generated in 0.4296 seconds