Spelling suggestions: "subject:"inferencia"" "subject:"conferencia""
161 |
[en] TYPE-2 HIERARCHICAL NEURO-FUZZY BSP MODEL / [pt] MODELOS NEURO-FUZZY HIERÁRQUICOS BSP DO TIPO 2ROXANA JIMENEZ CONTRERAS 23 November 2007 (has links)
[pt] Este trabalho tem por objetivo criar um novo sistema de
inferência fuzzy
intervalar do tipo 2 para tratamento de incertezas com
aprendizado automático e
que proporcione um intervalo de confiança para as suas
saídas defuzzificadas
através do cálculo dos conjuntos tipo-reduzidos
correspondentes. Para viabilizar
este objetivo, este novo modelo combina os paradigmas de
modelagem dos
sistemas de inferência fuzzy do tipo 2 e redes neurais com
técnicas de
particionamento recursivo BSP. Este modelo possui
principalmente a capacidade
de modelar e manipular a maioria dos tipos de incertezas
existentes em situações
reais, minimizando os efeitos destas para produzir um
melhor desempenho. Além
disso, tem a capacidade autônoma de criar e expandir
automaticamente a sua
própria estrutura, de reduzir a limitação quanto ao número
de entradas e de extrair
regras de conhecimento a partir de um conjunto de dados.
Este novo modelo
fornece um intervalo de confiança, que se constitui em uma
informação
importante para aplicações reais. Neste contexto, este
modelo supera as limitações
dos sistemas de inferência fuzzy do tipo 2 - complexidade
computacional,
reduzido número de entradas permissíveis e forma limitada,
ou inexistente, de
criarem a sua própria estrutura e regras - e dos sistemas
de inferência fuzzy do
tipo 1 - adaptação incompleta a incertezas e não
fornecimento de um intervalo de
confiança para a saída. Os sistemas de inferência fuzzy do
tipo1 também
apresentam limitações quanto ao reduzido número de entradas
permissíveis, mas o
uso de particionamentos recursivos, já explorado com
excelentes resultados
[SOUZ99], reduz significativamente estas limitações. O
trabalho constitui-se
fundamentalmente em quatro partes: um estudo sobre os
diferentes sistemas de
inferência fuzzy do tipo 2 existentes, análise dos sistemas
neuro-fuzzy
hierárquicos que usam conjuntos fuzzy do tipo 1, modelagem
e implementação do
novo modelo neuro-fuzzy hierárquico BSP do tipo 2 e estudo
de casos. O novo
modelo, denominado modelo neuro-fuzzy hierárquico BSP do
tipo 2 (NFHB-T2), foi definido a partir do estudo das
características desejáveis e das limitações dos
sistemas de inferência fuzzy do tipo 2 e do tipo 1 e dos
sistemas neuro-fuzzy
hierárquicos que usam conjuntos fuzzy do tipo 1 existentes.
Desta forma, o
NFHB-T2 é modelado e implementado com os atributos de
interpretabilidade e
autonomia, a partir da concepção de sistemas de inferência
fuzzy do tipo 2, de
redes neurais e do particionamento recursivo BSP. O modelo
desenvolvido é
avaliado em diversas bases de dados benchmark e aplicações
reais de previsão e
aproximação de funções. São feitas comparações com outros
modelos. Os
resultados encontrados mostram que o modelo NFHB-T2
fornece, em previsão e
aproximação de funções, resultados próximos e em vários
casos superiores aos
melhores resultados proporcionados pelos modelos utilizados
para comparação.
Em termos de tempo computacional, o seu desempenho também é
muito bom.
Em previsão e aproximação de funções, os intervalos de
confiança obtidos para as
saídas defuzzificadas mostram-se sempre coerentes e
oferecem maior
credibilidade na maioria dos casos quando comparados a
intervalos de confiança
obtidos por métodos tradicionais usando as saídas previstas
pelos outros modelos
e pelo próprio NFHB-T2 . / [en] The objective of this thesis is to create a new type-2
fuzzy inference system
for the treatment of uncertainties with automatic learning
and that provides an
interval of confidence for its defuzzified output through
the calculation of
corresponding type-reduced sets. In order to attain this
objective, this new model
combines the paradigms of the modelling of the type-2 fuzzy
inference systems
and neural networks with techniques of recursive BSP
partitioning. This model
mainly has the capacity to model and to manipulate most of
the types of existing
uncertainties in real situations, diminishing the effects
of these to produce a better
performance. In addition, it has the independent capacity
to create and to expand
its own structure automatically, to reduce the limitation
referred to the number of
inputs and to extract rules of knowledge from a data set.
This new model provides
a confidence interval, that constitutes an important
information for real
applications. In this context, this model surpasses the
limitations of the type-2
fuzzy inference systems - complexity computational, small
number of inputs
allowed and limited form, or nonexistent, to create its own
structure and rules -
and of the type-1 fuzzy inference systems - incomplete
adaptation to uncertainties
and not to give an interval of confidence for the output.
The type-1 fuzzy
inference systems also present limitations with regard to
the small number of
inputs allowed, but the use of recursive partitioning,
already explored with
excellent results [SOUZ99], reduce significantly these
limitations. This work
constitutes fundamentally of four parts: a study on the
different existing type-2
fuzzy inference systems, analysis of the hierarchical neuro-
fuzzy systems that use
type-1 fuzzy sets, modelling and implementation of the new
type-2 hierarchical
neuro-fuzzy BSP model and study of cases. The new model,
denominated type-2
hierarchical neuro-fuzzy BSP model (T2-HNFB) was defined
from the study of
the desirable characteristics and the limitations of the
type-2 and type-1 fuzzy inference systems and the existing
hierarchical neuro-fuzzy systems that use type-
1 fuzzy sets. Of this form, the T2-HNFB model is modelling
and implemented
with the attributes of interpretability and autonomy, from
the conception of type-2
fuzzy inference systems, neural networks and recursive BSP
partitioning. The
developed model is evaluated in different benchmark
databases and real
applications of forecast and approximation of functions.
Comparisons with other
models are done. The results obtained show that T2-HNFB
model provides, in
forecast and approximation of functions, next results and
in several cases superior
to the best results provided by the models used for
comparison. In terms of
computational time, its performance also is very good. In
forecast and
approximation of functions, the intervals of confidence
obtained for the
defuzzified outputs are always coherent and offer greater
credibility in most of
cases when compared with intervals of confidence obtained
through traditional
methods using the forecast outputs by the other models and
the own T2-HNFB
model.
|
162 |
Medidas de dependência entre séries temporais: estudo comparativo, análise estatística e aplicações em neurociências / Measures of dependence between time series: Comparative study, statistical analysis and applications in neuroscienceBrito, Carlos Stein Naves de 29 July 2010 (has links)
Medidas de dependência entre séries temporais são estudadas com a perspectiva de evidenciar como diferentes regiões do cérebro interagem, por meio da aplicação a sinais eletrofisiológicos. Baseado na representação auto-regressiva e espectral de séries temporais, diferentes medidas são comparadas entre si, incluindo coerência espectral e a coerência parcial direcionada, e introduz-se uma nova medida, denominada transferência parcial direcionada. As medidas são analisadas pelas propriedades de parcialização, relações diretas ou indiretas e direcionalidade temporal, e são mostradas suas relações com a correlação quadrática. Conclui-se que, entre as medidas analisadas, a coerência parcial direcionada e a transferência parcial direcionada possuem o maior número de características desejáveis, fundamentadas no conceito de causalidade de Granger. A estatística assintótica é desenvolvida para todas as medidas, incluindo intervalo de confiança e teste de hipótese nula, assim como sua implementação computacional. A aplicação a séries simuladas e a análise de dados eletrofisiológicos reais ilustram o estudo comparativo e a aplicabilidade das novas estatísticas apresentadas. / Measures of dependence between temporal series are studied in the context of revealing how different brain regions interact, through their application to electrophysiology. Based on the spectral and autoregressive model of time series, different measures are compared, including coherence and partial directed coherence, and a new measure is introduced, named partial directed transfer. The measures are analyzed through the properties of partialization, direct or indirect relations and temporal directionality, and their relation to quadratic correlation is shown. It results that among the presented measures, partial directed coherence and partial directed transfer reveal the highest number of desirable properties, being grounded on the concept of Granger causality. The asymptotic statistics for all measures are developed, including confidence intervals and null hypothesis testing, as well as their computational implementation. The application to simulated series and the analysis of electrophysiological data illustrate the comparative study and the applicability of the newly presented statistics.
|
163 |
Estimação não-paramétrica e semi-paramétrica de fronteiras de produçãoTorrent, Hudson da Silva January 2010 (has links)
Existe uma grande e crescente literatura sobre especificação e estimação de fronteiras de produção e, portanto, de eficiência de unidades produtivas. Nesta tese, o foco esta sobre modelos de fronteiras determinísticas, os quais são baseados na hipótese de que os dados observados pertencem ao conjunto tecnológico. Dentre os modelos estatísticos e estimadores para fronteiras determinísticas existentes, uma abordagem promissora e a adotada por Martins-Filho e Yao (2007). Esses autores propõem um procedimento de estimação composto por três estágios. Esse estimador e de fácil implementação, visto que envolve procedimentos não-paramétricos bem conhecidos. Além disso, o estimador possui características desejáveis vis-à-vis estimadores para fronteiras determinísticas tradicionais como DEA e FDH. Nesta tese, três artigos, que melhoram o modelo proposto por Martins-Filho e Yao (2007), sao propostos. No primeiro artigo, o procedimento de estimação desses autores e melhorado a partir de uma variação do estimador exponencial local, proposto por Ziegelmann (2002). Demonstra-se que estimador proposto a consistente e assintoticamente normal. Além disso, devido ao estimador exponencial local, estimativas potencialmente negativas para a função de variância condicional, que poderiam prejudicar a aplicabilidade do estimador proposto por Martins-Filho e Yao, são evitadas. No segundo artigo, e proposto um método original para estimação de fronteiras de produção em apenas dois estágios. E mostrado que se pode eliminar o segundo estágio proposto por Martins-Filho e Yao, assim como, eliminar o segundo estagio proposto no primeiro artigo desta tese. Em ambos os casos, a estimação do mesmo modelo de fronteira de produção requer três estágios, sendo versões diferentes para o segundo estagio. As propriedades assintóticas do estimador proposto são analisadas, mostrando-se consistência e normalidade assintótica sob hipóteses razoáveis. No terceiro artigo, a proposta uma variação semi-paramétrica do modelo estudado no segundo artigo. Reescreve-se aquele modelo de modo que se possa estimar a fronteira de produção e a eficiência de unidades produtivas no contexto de múltiplos insumos, sem incorrer no curse of dimensionality. A abordagem adotada coloca o modelo na estrutura de modelos aditivos, a partir de hipóteses sobre como os insumos se combinam no processo produtivo. Em particular, considera-se aqui os casos de insumos aditivos e insumos multiplicativos, os quais são amplamente considerados em teoria econômica e aplicações. Estudos de Monte Carlo são apresentados em todos os artigos, afim de elucidar as propriedades dos estimadores propostos em amostras finitas. Além disso, estudos com dados reais são apresentados em todos os artigos, nos quais são estimador rankings de eficiência para uma amostra de departamentos policiais dos EUA, a partir de dados sobre criminalidade daquele país. / There exists a large and growing literature on the specification and estimation of production frontiers and therefore efficiency of production units. In this thesis we focus on deterministic production frontier models, which are based on the assumption that all observed data lie in the technological set. Among the existing statistical models and estimators for deterministic frontiers, a promising approach is that of Martins-Filho and Yao (2007). They propose an estimation procedure that consists of three stages. Their estimator is fairly easy to implement as it involves standard nonparametric procedures. In addition, it has a number of desirable characteristics vis-a-vis traditional deterministic frontier estimators as DEA and FDH. In this thesis we propose three papers that improve the model proposed in Martins-Filho and Yao (2007). In the first paper we improve their estimation procedure by adopting a variant of the local exponential smoothing proposed in Ziegelmann (2002). Our estimator is shown to be consistent and asymptotically normal. In addition, due to local exponential smoothing, potential negativity of conditional variance functions that may hinder the use of Martins-Filho and Yao's estimator is avoided. In the second paper we propose a novel method for estimating production frontiers in only two stages. (Continue). There we show that we can eliminate the second stage of Martins-Filho and Yao as well as of our first paper, where estimation of the same frontier model requires three stages under different versions for the second stage. We study asymptotic properties showing consistency andNirtnin, asymptotic normality of our proposed estimator under standard assumptions. In the third paper we propose a semiparametric variation of the frontier model studied in the second paper. We rewrite that model allowing for estimating the production frontier and efficiency of production units in a multiple input context without suffering the curse of dimensionality. Our approach places that model within the framework of additive models based on assumptions regarding the way inputs combine in production. In particular, we consider the cases of additive and multiplicative inputs, which are widely considered in economic theory and applications. Monte Carlo studies are performed in all papers to shed light on the finite sample properties of the proposed estimators. Furthermore a real data study is carried out in all papers, from which we rank efficiency within a sample of USA Law Enforcement agencies using USA crime data.
|
164 |
Obtenção dos níveis de significância para os testes de Kruskal-Wallis, Friedman e comparações múltiplas não-paramétricas. / Obtaining significance levels for Kruskal-Wallis, Friedman and nonparametric multiple comparisons tests.Pontes, Antonio Carlos Fonseca 29 June 2000 (has links)
Uma das principais dificuldades encontradas pelos pesquisadores na utilização da Estatística Experimental Não-Paramétrica é a obtenção de resultados confiáveis. Os testes mais utilizados para os delineamentos com um fator de classificação simples inteiramente casualizados e blocos casualizados são o de Kruskal-Wallis e o de Friedman, respectivamente. As tabelas disponíveis para estes testes são pouco abrangentes, fazendo com que o pesquisador seja obrigado a recorrer a aproximações. Estas aproximações diferem dependendo do autor a ser consultado, podendo levar a resultados contraditórios. Além disso, tais tabelas não consideram empates, mesmo no caso de pequenas amostras. No caso de comparações múltiplas isto é mais evidente ainda, em especial quando ocorrem empates ou ainda, nos delineamentos inteiramente casualizados onde se tem número diferente de repetições entre tratamentos. Nota-se ainda que os softwares mais utilizados em geral recorrem a aproximações para fornecer os níveis de significância, além de não apresentarem resultados para as comparações múltiplas. Assim, o objetivo deste trabalho é apresentar um programa, em linguagem C, que realiza os testes de Kruskal-Wallis, de Friedman e de comparações múltiplas entre todos os tratamentos (bilateral) e entre os tratamentos e o controle (uni e bilateral) considerando todas as configurações sistemáticas de postos ou com 1.000.000 de configurações aleatórias, dependendo do número total de permutações possíveis. Dois níveis de significância são apresentados: o DW ou MaxDif , baseado na comparação com a diferença máxima dentro de cada configuração e o Geral, baseado na comparação com todas as diferenças em cada configuração. Os valores do nível de significância Geral assemelham-se aos fornecidos pela aproximação normal. Os resultados obtidos através da utilização do programa mostram, ainda, que os testes utilizando as permutações aleatórias podem ser bons substitutos nos casos em que o número de permutações sistemáticas é muito grande, já que os níveis de probabilidade são bastante próximos. / One of the most difficulties for the researchers in using Nonparametric Methods is to obtain reliable results. Kruskal-Wallis and Friedman tests are the most used for one-way layout and for randomized blocks, respectively. Tables available for these tests are not too wild, so the research must use approximate values. These approximations are different, depending on the author and the results can be not similar. Furthermore, these tables do not taking account tied observations, even in the case of small sample. For multiple comparisons, this is more evident, specially when tied observations occur or the number of replications is different. Many softwares like SAS, STATISTICA, S-Plus, MINITAB, etc., use approximation in order to get the significance levels and they do not present results for multiple comparisons. Thus, the aim of this work is to present a routine in C language that runs Kruskal-Wallis, Friedman and multiple comparisons among all treatments (bi-tailed) and between treatment and control (uni and bi-tailed), considering all the systematic configurations of the ranks or with more than 1,000,000 random ones, depending on the total of possible permutations. Two levels of significance are presented: DW or MaxDif, based on the comparison of the maximum difference within each configuration and the Geral, based on the comparison of all differences for each configuration. The Geral values of the significance level are very similar for the normal approximation. The obtaining results through this routine show that, the tests using random permutations can be nice substitutes for the case of the number of systematic permutations is too large, once the levels of probability are very near.
|
165 |
Filogenia y genética poblacional del género Androcymbium (Colchiceae)Hoyo Leal, Alberto del 15 June 2006 (has links)
En este trabajo se ha estudiado el género Androcymbium (Colchicaceae) a dos niveles: macro- y micro- evolutivo. A nivel microevolutivo se ha obtenido que para las especies de Sudáfrica oriental la componente interpoblacional es muy importante para explicar la distribución de la variabilidad genética, igual que en Sudáfrica occidental. Para las especies de Namibia, la componente mas importante es la intrapoblacional, igual que en el norte de África. A nivel macroevolutivo se ha obtenido que el origen del género se sitúa en Sudáfrica occidental, datándose en 11,22 ma. Este género ha resultado ser parafilético, dada la aparición conjunta en un mismo clado de especies de Androcymbium y Colchicum, y las especies del norte de África derivan de un taxa de Namibia que llegó a la cuenca Mediterránea a principios del Plioceno gracias a la formación de un corredor árido entre las zonas áridas del suroeste y este de África. / In this study the genus Androcymbium (Colchicaceae) has been studied at two levels: macro- and micro- evolutive. At the microevolutive level it has been obtained that in the western south African species, the inter-populational component is very important to explain the distribution of the genetic variability, the same case like in western South Africa. In the Namibian species, the main component in the intra-populational, the same case as in north Africa. At the macroevolutive level it has obtained that the origin of the genus is located in western South Africa and it has been dated in 12.22 mya. This genus is paraphyletic because of the inclusion of some species of Colchicum within Androcymbium, and the origin of the northern Africa taxa are related with a Namibian taxa that colonized the Mediterranean basin at the beginning of Pliocene thanks to the formation of an arid corridor between the arid areas of south-western and eastern Africa.
|
166 |
Definició d'una metodologia experimental per a l'estudi de resultats en sistemes d'aprenentatge artificialMartorell Rodon, Josep Maria 23 November 2007 (has links)
El treball presentat s'emmarca dins del camp d'actuació propi del Grup de Recerca en Sistemes Intel·ligents: l'aprenentatge artificial. Les grans àrees són la computació evolutiva i el raonament basat en casos, tot dirigint la recerca a problemes de classificació, diagnosi i predicció. En tots aquests camps són objecte d'estudi grans conjunts de dades, pels quals es treballen diferents tècniques que en permeten l'extracció de coneixement i l'aplicació als problemes citats. Els grans avenços en aquestes àrees (sovint en forma de nous algorismes) conviuen amb treballs molt parcials sobre les metodologies adequades per a l'avaluació d'aquestes noves propostes. En front d'aquesta situació, la tesi que aquí es presenta proposa un nou marc general per a l'avaluació del comportament d'un conjunt d'M algorismes que, per tal de ser analitzats, són assajats sobre N problemes de prova. La tesi sosté que l'anàlisi habitual que es fa d'aquests resultats és clarament insuficient, i que degut a això les conclusions que s'exposen en els treballs publicats són sovint parcials, i en alguns casos fins i tot errònies.El treball s'inicia amb un estudi introductori sobre les mesures que permeten expressar la bondat d'un algorisme, a través de l'assaig sobre una col·lecció de problemes de prova. En aquest punt, es demostra la necessitat d'un estudi previ de les propietats inherents d'aquests problemes (a partir, per exemple, de les mètriques de complexitat) si es vol assegurar la fiabilitat de les conclusions que s'obtindran.A continuació, es defineix el marc d'aplicació de tot un conjunt de tècniques d'inferència estadística per les quals, essent aquestes prou ben conegudes, s'analitzen els factors a tenir en compte en la determinació del seu domini d'ús. La tesi proposa un protocol general per a l'estudi, des d'un punt de vista estadístic, del comportament d'un conjunt d'algorismes, incloent uns nous models gràfics que en faciliten l'anàlisi, i l'estudi detallat de les propietats inherents als problemes de prova utilitzats. Aquest protocol determina el domini d'ús de les metodologies per a la comparació dels resultats obtinguts en cada problema. La tesi demostra, a més, com aquest domini està directament relacionat amb la capacitat d'aquesta metodologia per a determinar diferències significatives, i també amb la seva replicabilitat.Finalment, es proposen un conjunt de casos sobre resultats ja publicats amb anterioritat, fruit de nous algorismes desenvolupats pel nostre Grup de Recerca, molt en especial en l'aplicació del raonament basat en casos. En tots ells es mostra la correcta aplicació de les metodologies desenvolupades en els capítols anteriors, i es destaquen els errors comesos habitualment, que duen a conclusions no fiables. / El trabajo presentado se enmarca dentro del campo de actuación propio del Grupo de Investigación en Sistemas Inteligentes: el aprendizaje artificial. Las grandes áreas son la computación evolutiva y el razonamiento basado en casos, dirigiendo la investigación a problemas de clasificación, diagnóstico y predicción. En todos estos campos son objeto de estudio grandes conjuntos de datos, para los cuales se trabajan diferentes técnicas que permiten la extracción de conocimiento y la aplicación a los citados problemas. Los grandes avances en estas áreas (muchas veces en forma de nuevos algoritmos) conviven con trabajos muy parciales sobre las metodologías adecuadas para la evaluación de estas nuevas propuestas.Frente a esta situación, la tesis que aquí se presenta propone un nuevo marco general para la evaluación del comportamiento de un conjunto de M algoritmos que, para poder ser analizados, son ensayados sobre N problemas de prueba. La tesis sostiene que el análisis habitual que se hace de estos resultados es claramente insuficiente, i que debido a esto las conclusiones que se exponen en los trabajos publicados son muchas veces parciales, y en algunos casos hasta erróneas.El trabajo se inicia con un estudio introductoria sobre las medidas que permiten expresar la bondad de un algoritmo, a través del ensayo sobre una colección de problemas de prueba. En este punto, se demuestra la necesidad de un estudio previo de las propiedades inherentes de estos problemas (a partir, por ejemplo, de las métricas de complejidad) si se quiere asegurar la fiabilidad de las conclusiones que se obtendrán.A continuación, se define el marco de aplicación de todo un conjunto de técnicas de inferencia estadística para las cuales, siendo éstas bien conocidas, se analizan los factores a tener en cuenta en la determinación de su dominio de uso. La tesis propone un protocolo general para el estudio, desde un punto de vista estadístico, del comportamiento de un conjunto de algoritmos, incluyendo unos nuevos modelos gráficos que facilitan su análisis, y el estudio detallado de las propiedades inherentes a los problemas de prueba utilizados.Este protocolo determina el dominio de uso de las metodologías para la comparación de resultados obtenidos en cada problema. La tesis demuestra, además, como este dominio está directamente relacionado con la capacidad de esta metodología para determinar diferencias significativas, y también con su replicabilidad.Finalmente, se proponen un conjunto de casos sobre resultados ya publicados con anterioridad, fruto de nuevos algoritmos desarrollados por nuestro Grupo de Investigación, muy en especial en la aplicación del razonamiento basado en casos. En todos ellos se muestra la correcta aplicación de las metodologías desarrolladas en los capítulos anteriores, y se destacan los errores cometidos habitualmente, que llevan a conclusiones no fiables. / The present work is all part of the work field of the Research Group in Intelligent Systems: the machine learning. The main areas are the evolutive computation and the case based reasoning, the investigation being focused on the classification, diagnosis and prediction issues. In all of these fields, great groups of data are studied, for which different techniques are applied, enabling the knowledge extraction and the application of the aforementioned problems. The big breakthroughs in these areas (many times in ways of algorithms) coexist with very partial works on suitable methodologies for the evaluation of these new proposals. Before this situation, the thesis herein presented proposes a new general approach for the assessment of a set of M algorithms behaviour which, in order to be analysed, are tested over N datasets. The thesis maintains that the analysis made for these results is clearly insufficient and consequently the conclusions put forward in the works published are very often partial and in some cases even erroneous.This work begins with an introductory study on the measures allowing to express the performance of an algorithm, through the test over a collection of datasets. At this point it is evidenced that a prior study of the inherent properties of these problems (for instance, based on complexity metrics) is needed, in order to assure the reliability of the conclusions that will be drawn. Next, the scope of application of a whole set of well known techniques of statistical inference is defined, for which the factors to be taken into account in the determination of their application analysed. The thesis proposes a general protocol for the study, from a statistical point of view, of the behaviour of a set of algorithms, including new graphic patterns which facilitate its analysis, as well as the detailed study of the inherent properties of the test problems used.This protocol determines the application domains of the methodologies for the comparison of the results obtained in each problem. The thesis demonstrates furthermore how this domain is directly related to the capability of this methodology to determine significant differences, as well as to its replicability.Finally, a set of cases on results already published are proposed, resulting from new algorithms developed by our Research Group, very specially in the application of the case-based reasoning. In all these cases the application of the methodologies developed in the previous chapters is proved to be correct, and the errors incurred in repeatedly, leading to unreliable conclusions, are highlighted.
|
167 |
Um modelo espaço-temporal bayesiano para medir a interação social na criminalidade : simulações e evidências na Região Metropolitana de São PauloGazzano, Marcelo January 2008 (has links)
Neste trabalho utilizamos um modelo espaço-temporal proposto em Rojas (2004) para medir a interação social da criminalidade na região metropolitana de São Paulo. Realizamos simulações de Monte Carlo para testar a capacidade de estimação do modelo em diferentes cenários. Observamos que a estimação melhora com o aumento de observações ao longo do tempo. Já os resultados empíricos indicam que a região metropolitana de São Paulo é um hot spot no estado, pois é encontrado um maior grau de interação social no índice de homicídio em relação aos índices de roubo e furto. / In this paper we employ a spatio-temporal model proposed in Rojas (2004) to evaluate the social interaction in crime in São Paulo metropolitan area. We carry out Monte Carlo simulations to test the model estimation capability in different scenarios. We notice that the estimation gets better as the number of observations in time raises. The results point out that São Paulo metropolitan area is a hot spot in the state since we found out a greater social interaction for the homicide index, compared to robbery and thievery.
|
168 |
Estimação não-paramétrica e semi-paramétrica de fronteiras de produçãoTorrent, Hudson da Silva January 2010 (has links)
Existe uma grande e crescente literatura sobre especificação e estimação de fronteiras de produção e, portanto, de eficiência de unidades produtivas. Nesta tese, o foco esta sobre modelos de fronteiras determinísticas, os quais são baseados na hipótese de que os dados observados pertencem ao conjunto tecnológico. Dentre os modelos estatísticos e estimadores para fronteiras determinísticas existentes, uma abordagem promissora e a adotada por Martins-Filho e Yao (2007). Esses autores propõem um procedimento de estimação composto por três estágios. Esse estimador e de fácil implementação, visto que envolve procedimentos não-paramétricos bem conhecidos. Além disso, o estimador possui características desejáveis vis-à-vis estimadores para fronteiras determinísticas tradicionais como DEA e FDH. Nesta tese, três artigos, que melhoram o modelo proposto por Martins-Filho e Yao (2007), sao propostos. No primeiro artigo, o procedimento de estimação desses autores e melhorado a partir de uma variação do estimador exponencial local, proposto por Ziegelmann (2002). Demonstra-se que estimador proposto a consistente e assintoticamente normal. Além disso, devido ao estimador exponencial local, estimativas potencialmente negativas para a função de variância condicional, que poderiam prejudicar a aplicabilidade do estimador proposto por Martins-Filho e Yao, são evitadas. No segundo artigo, e proposto um método original para estimação de fronteiras de produção em apenas dois estágios. E mostrado que se pode eliminar o segundo estágio proposto por Martins-Filho e Yao, assim como, eliminar o segundo estagio proposto no primeiro artigo desta tese. Em ambos os casos, a estimação do mesmo modelo de fronteira de produção requer três estágios, sendo versões diferentes para o segundo estagio. As propriedades assintóticas do estimador proposto são analisadas, mostrando-se consistência e normalidade assintótica sob hipóteses razoáveis. No terceiro artigo, a proposta uma variação semi-paramétrica do modelo estudado no segundo artigo. Reescreve-se aquele modelo de modo que se possa estimar a fronteira de produção e a eficiência de unidades produtivas no contexto de múltiplos insumos, sem incorrer no curse of dimensionality. A abordagem adotada coloca o modelo na estrutura de modelos aditivos, a partir de hipóteses sobre como os insumos se combinam no processo produtivo. Em particular, considera-se aqui os casos de insumos aditivos e insumos multiplicativos, os quais são amplamente considerados em teoria econômica e aplicações. Estudos de Monte Carlo são apresentados em todos os artigos, afim de elucidar as propriedades dos estimadores propostos em amostras finitas. Além disso, estudos com dados reais são apresentados em todos os artigos, nos quais são estimador rankings de eficiência para uma amostra de departamentos policiais dos EUA, a partir de dados sobre criminalidade daquele país. / There exists a large and growing literature on the specification and estimation of production frontiers and therefore efficiency of production units. In this thesis we focus on deterministic production frontier models, which are based on the assumption that all observed data lie in the technological set. Among the existing statistical models and estimators for deterministic frontiers, a promising approach is that of Martins-Filho and Yao (2007). They propose an estimation procedure that consists of three stages. Their estimator is fairly easy to implement as it involves standard nonparametric procedures. In addition, it has a number of desirable characteristics vis-a-vis traditional deterministic frontier estimators as DEA and FDH. In this thesis we propose three papers that improve the model proposed in Martins-Filho and Yao (2007). In the first paper we improve their estimation procedure by adopting a variant of the local exponential smoothing proposed in Ziegelmann (2002). Our estimator is shown to be consistent and asymptotically normal. In addition, due to local exponential smoothing, potential negativity of conditional variance functions that may hinder the use of Martins-Filho and Yao's estimator is avoided. In the second paper we propose a novel method for estimating production frontiers in only two stages. (Continue). There we show that we can eliminate the second stage of Martins-Filho and Yao as well as of our first paper, where estimation of the same frontier model requires three stages under different versions for the second stage. We study asymptotic properties showing consistency andNirtnin, asymptotic normality of our proposed estimator under standard assumptions. In the third paper we propose a semiparametric variation of the frontier model studied in the second paper. We rewrite that model allowing for estimating the production frontier and efficiency of production units in a multiple input context without suffering the curse of dimensionality. Our approach places that model within the framework of additive models based on assumptions regarding the way inputs combine in production. In particular, we consider the cases of additive and multiplicative inputs, which are widely considered in economic theory and applications. Monte Carlo studies are performed in all papers to shed light on the finite sample properties of the proposed estimators. Furthermore a real data study is carried out in all papers, from which we rank efficiency within a sample of USA Law Enforcement agencies using USA crime data.
|
169 |
Um modelo espaço-temporal bayesiano para medir a interação social na criminalidade : simulações e evidências na Região Metropolitana de São PauloGazzano, Marcelo January 2008 (has links)
Neste trabalho utilizamos um modelo espaço-temporal proposto em Rojas (2004) para medir a interação social da criminalidade na região metropolitana de São Paulo. Realizamos simulações de Monte Carlo para testar a capacidade de estimação do modelo em diferentes cenários. Observamos que a estimação melhora com o aumento de observações ao longo do tempo. Já os resultados empíricos indicam que a região metropolitana de São Paulo é um hot spot no estado, pois é encontrado um maior grau de interação social no índice de homicídio em relação aos índices de roubo e furto. / In this paper we employ a spatio-temporal model proposed in Rojas (2004) to evaluate the social interaction in crime in São Paulo metropolitan area. We carry out Monte Carlo simulations to test the model estimation capability in different scenarios. We notice that the estimation gets better as the number of observations in time raises. The results point out that São Paulo metropolitan area is a hot spot in the state since we found out a greater social interaction for the homicide index, compared to robbery and thievery.
|
170 |
Estimação não-paramétrica e semi-paramétrica de fronteiras de produçãoTorrent, Hudson da Silva January 2010 (has links)
Existe uma grande e crescente literatura sobre especificação e estimação de fronteiras de produção e, portanto, de eficiência de unidades produtivas. Nesta tese, o foco esta sobre modelos de fronteiras determinísticas, os quais são baseados na hipótese de que os dados observados pertencem ao conjunto tecnológico. Dentre os modelos estatísticos e estimadores para fronteiras determinísticas existentes, uma abordagem promissora e a adotada por Martins-Filho e Yao (2007). Esses autores propõem um procedimento de estimação composto por três estágios. Esse estimador e de fácil implementação, visto que envolve procedimentos não-paramétricos bem conhecidos. Além disso, o estimador possui características desejáveis vis-à-vis estimadores para fronteiras determinísticas tradicionais como DEA e FDH. Nesta tese, três artigos, que melhoram o modelo proposto por Martins-Filho e Yao (2007), sao propostos. No primeiro artigo, o procedimento de estimação desses autores e melhorado a partir de uma variação do estimador exponencial local, proposto por Ziegelmann (2002). Demonstra-se que estimador proposto a consistente e assintoticamente normal. Além disso, devido ao estimador exponencial local, estimativas potencialmente negativas para a função de variância condicional, que poderiam prejudicar a aplicabilidade do estimador proposto por Martins-Filho e Yao, são evitadas. No segundo artigo, e proposto um método original para estimação de fronteiras de produção em apenas dois estágios. E mostrado que se pode eliminar o segundo estágio proposto por Martins-Filho e Yao, assim como, eliminar o segundo estagio proposto no primeiro artigo desta tese. Em ambos os casos, a estimação do mesmo modelo de fronteira de produção requer três estágios, sendo versões diferentes para o segundo estagio. As propriedades assintóticas do estimador proposto são analisadas, mostrando-se consistência e normalidade assintótica sob hipóteses razoáveis. No terceiro artigo, a proposta uma variação semi-paramétrica do modelo estudado no segundo artigo. Reescreve-se aquele modelo de modo que se possa estimar a fronteira de produção e a eficiência de unidades produtivas no contexto de múltiplos insumos, sem incorrer no curse of dimensionality. A abordagem adotada coloca o modelo na estrutura de modelos aditivos, a partir de hipóteses sobre como os insumos se combinam no processo produtivo. Em particular, considera-se aqui os casos de insumos aditivos e insumos multiplicativos, os quais são amplamente considerados em teoria econômica e aplicações. Estudos de Monte Carlo são apresentados em todos os artigos, afim de elucidar as propriedades dos estimadores propostos em amostras finitas. Além disso, estudos com dados reais são apresentados em todos os artigos, nos quais são estimador rankings de eficiência para uma amostra de departamentos policiais dos EUA, a partir de dados sobre criminalidade daquele país. / There exists a large and growing literature on the specification and estimation of production frontiers and therefore efficiency of production units. In this thesis we focus on deterministic production frontier models, which are based on the assumption that all observed data lie in the technological set. Among the existing statistical models and estimators for deterministic frontiers, a promising approach is that of Martins-Filho and Yao (2007). They propose an estimation procedure that consists of three stages. Their estimator is fairly easy to implement as it involves standard nonparametric procedures. In addition, it has a number of desirable characteristics vis-a-vis traditional deterministic frontier estimators as DEA and FDH. In this thesis we propose three papers that improve the model proposed in Martins-Filho and Yao (2007). In the first paper we improve their estimation procedure by adopting a variant of the local exponential smoothing proposed in Ziegelmann (2002). Our estimator is shown to be consistent and asymptotically normal. In addition, due to local exponential smoothing, potential negativity of conditional variance functions that may hinder the use of Martins-Filho and Yao's estimator is avoided. In the second paper we propose a novel method for estimating production frontiers in only two stages. (Continue). There we show that we can eliminate the second stage of Martins-Filho and Yao as well as of our first paper, where estimation of the same frontier model requires three stages under different versions for the second stage. We study asymptotic properties showing consistency andNirtnin, asymptotic normality of our proposed estimator under standard assumptions. In the third paper we propose a semiparametric variation of the frontier model studied in the second paper. We rewrite that model allowing for estimating the production frontier and efficiency of production units in a multiple input context without suffering the curse of dimensionality. Our approach places that model within the framework of additive models based on assumptions regarding the way inputs combine in production. In particular, we consider the cases of additive and multiplicative inputs, which are widely considered in economic theory and applications. Monte Carlo studies are performed in all papers to shed light on the finite sample properties of the proposed estimators. Furthermore a real data study is carried out in all papers, from which we rank efficiency within a sample of USA Law Enforcement agencies using USA crime data.
|
Page generated in 0.0575 seconds