• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 116
  • 35
  • 28
  • 22
  • 21
  • 12
  • 6
  • 5
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 319
  • 60
  • 47
  • 36
  • 34
  • 28
  • 27
  • 26
  • 26
  • 25
  • 25
  • 24
  • 24
  • 24
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Structural analysis and brittle deformation -- groundwater relationships of the Rough Creek Fault Zone (RCFZ), Western Kentucky, USA

Alten, John Michael. January 2005 (has links)
Thesis (M.S.)--Miami University, Dept. of Geology, 2005. / Title from first page of PDF document. Document formatted into pages; contains [1], v, 72 p., [64] plates : ill. Includes bibliographical references (p. 65-71).
122

Soft-clustering in static and dynamic environments

Saltos Atiencia, Ramiro Javier January 2016 (has links)
Doctor en Sistemas de Ingeniería / En la actualidad, el entorno macro y micro económico en el cual op eran las empresas está cambiando constantemente y a gran velo cidad. Esto se deb e princip almente al auge de las nuevas tecnologías, la revolución de la información y la gran facilidad con la que ahora p o demos comu nicarnos con cualquier parte d el mundo. Debido a la gran canti dad de información que está siendo generada segundo tras segundo, junto con la facilidad con la que se puede acceder a ella, la minería de datos y la investigación de op eracion es se han convertido en una de las herramientas más imp ortantes para desarrollar sistemas de ap oyo a la toma de decisiones en to dos los niveles. La imp ortancia del traba jo conjunto de ambas disciplinas radica en la faci lidad relativa con la que extraen cono cimiento de enormes bases de datos y la utilizan para optimizar los pro cesos organizacionales relevantes. En particular, para la min ería de datos, estos hechos h an provo cado qu e las bases de datos sean dinámicas, es decir, el nà omero de datos disponibles crece cada segundo haciendo que tiempo de vida útil de los modelos se reduzca, haciendo necesario actualizarlos periódicamente de tal forma que encajen con la realidad actual. Lo anterior demanda el desarrollo de nuevos algoritmos que sean capaces de manejar este tipo de cambios, lo cual ha ido ganando importancia en los últimos años. Adicionalmente, la incertidumbre, ambigüedad e imprecisión presentes en los problemas de la vida real son factores muy importantes a considerar cuando se desarrollan diferentes algoritmos de minería de datos. La forma más común de lidiar con la incertidumbre viene dada por la teoría de probabilidad, sin embargo, la ambigüedad e imprecisión han sido dejadas de lado hasta la aparición de nuevas formas de tratarlas; dos de las cuales son la teoría de conjuntos " fuzzy" y "rough." Con las ideas anteriores en mente, en esta tesis, un algoritmo clásico de clustering basado en support vectors es estudiado profundamente y extendido a una versión rough-fuzzy con el fin de darle la habilidad de manejar la ambigüedad e imprecisión presente en el mundo real. Luego de esto, este novedoso algoritmo de soft-computing es generalizado a una versión dinámica siendo capaz de procesar bases de datos que reciben nueva información con el paso del tiempo. Finalmente, utilizando como base estos dos algoritmos, un método de detección de outliers es propuesto como una de las múltiples posibles aplicaciones que resultan de esta investigación. En cada capítulo, los experimentos computacionales, resultados y discusión son provistos enfatizando la contribución que este trabajo de investigación tiene para la sociedad señalando los futuros desarrollos y posibles campos de aplicación
123

The quantification of perception based uncertainty using R-fuzzy sets and grey analysis

Khuman, Arjab Singh January 2016 (has links)
The nature of uncertainty cannot be generically defined as it is domain and context specific. With that being the case, there have been several proposed models, all of which have their own associated benefits and shortcomings. From these models, it was decided that an R-fuzzy approach would provide for the most ideal foundation from which to enhance and expand upon. An R-fuzzy set can be seen as a relatively new model, one which itself is an extension to fuzzy set theory. It makes use of a lower and upper approximation bounding from rough set theory, which allows for the membership function of an R-fuzzy set to be that of a rough set. An R-fuzzy approach provides the means for one to encapsulate uncertain fuzzy membership values, based on a given abstract concept. If using the voting method, any fuzzy membership value contained within the lower approximation can be treated as an absolute truth. The fuzzy membership values which are contained within the upper approximation, may be the result of a singleton, or the vast majority, but absolutely not all. This thesis has brought about the creation of a significance measure, based on a variation of Bayes' theorem. One which enables the quantification of any contained fuzzy membership value within an R-fuzzy set. Such is the pairing of the significance measure and an R-fuzzy set, an intermediary bridge linking to that of a generalised type-2 fuzzy set can be achieved. Simply by inferencing from the returned degrees of significance, one is able to ascertain the true significance of any uncertain fuzzy membership value, relative to other encapsulated uncertain values. As an extension to this enhancement, the thesis has also brought about the novel introduction of grey analysis. By utilising the absolute degree of grey incidence, it provides one with the means to measure and quantify the metric spaces between sequences, generated based on the returned degrees of significance for any given R-fuzzy set. As it will be shown, this framework is ideally suited to domains where perceptions are being modelled, which may also contain several varying clusters of cohorts based on any number of correlations. These clusters can then be compared and contrasted to allow for a more detailed understanding of the abstractions being modelled.
124

Fast Numerical Algorithms for 3-D Scattering from PEC and Dielectric Random Rough Surfaces in Microwave Remote Sensing

January 2016 (has links)
abstract: We present fast and robust numerical algorithms for 3-D scattering from perfectly electrical conducting (PEC) and dielectric random rough surfaces in microwave remote sensing. The Coifman wavelets or Coiflets are employed to implement Galerkin’s procedure in the method of moments (MoM). Due to the high-precision one-point quadrature, the Coiflets yield fast evaluations of the most off-diagonal entries, reducing the matrix fill effort from O(N^2) to O(N). The orthogonality and Riesz basis of the Coiflets generate well conditioned impedance matrix, with rapid convergence for the conjugate gradient solver. The resulting impedance matrix is further sparsified by the matrix-formed standard fast wavelet transform (SFWT). By properly selecting multiresolution levels of the total transformation matrix, the solution precision can be enhanced while matrix sparsity and memory consumption have not been noticeably sacrificed. The unified fast scattering algorithm for dielectric random rough surfaces can asymptotically reduce to the PEC case when the loss tangent grows extremely large. Numerical results demonstrate that the reduced PEC model does not suffer from ill-posed problems. Compared with previous publications and laboratory measurements, good agreement is observed. / Dissertation/Thesis / Doctoral Dissertation Electrical Engineering 2016
125

Det är "olagligt" att springa inne! : En kvalitativ studie om agens och fysisk lek i en svensk förskola / It's "illigal" to run indoors! : A Qualitative Study of Agency and Physical Play in a Swedish Pre-School Setting

Halleröd, Monika January 2018 (has links)
Uppsatsens syfte är att undersöka 4-5åringars meningsskapande och uppfattning om fysisk lek i förskolan. Utifrån empiri baserad på deltagande observationer och intervjuer tolkas resultatet med barndomssociologisk utgångspunkt och undersöker hur agens görs i en kategori av lek som ofta övervakas, begränsas och undviks i förskolan – fysisk lek. Empirin inrymmer deltagande i, observerande av, samtal om, reflekterande kring och planerande av fysisk lek såväl inom- som utomhus. Resultatet presenteras utifrån jagalek och visar att pedagoger med fysisk kapacitet värdesätts för ökad spänning och utmaningen samt att barn har kollektiva och individuella strategier för att möjliggöra fysisk lek efter egna önskemål. Ett ytterligare resultat visar på att barn har strategier att tilldela och reducerar vuxnas makt i lek. Det behövs mer forskning om fysisk lek, dels då det saknas begrepp som gör den talbar och dels utifrån dess marginaliserade position inom lekforskningen.
126

Determinação da força de adesão entre partícula e superfícies rugosas através da técnica centrífuga

Petean, Paula Garcia da Costa 28 March 2014 (has links)
Made available in DSpace on 2016-06-02T19:55:39Z (GMT). No. of bitstreams: 1 6040.pdf: 2233550 bytes, checksum: 85c4a2a63a2588091a17f8cbba6ee93c (MD5) Previous issue date: 2014-03-28 / Adhesion between powders and surfaces plays an important role in various technological areas and processes, such as paste drying operations, fluidization of fine particles, microencapsulation, xerography and in food and pharmaceutical processes. Adhesion of small particles to solid surfaces is a phenomenon closely associated with industrial hygiene and air pollution studies. The centrifuge technique to determine adhesion force is based on the detachment of particles from a substrate surface due to centrifugal force. In this technique, a substrate with particles deposited on its surface is rotated at successively increasing speeds, and after each rotation at a given speed, the number of particles remaining on the surface is determined. This technique uses imaging analysis to determine the number of adhered particles on the proof disk surface before and after each centrifugation. After applying a specific press-on, images of the substrates containing particles from the pulverized materials were taken by optical microscope Olympus BX60 (Olympus Co. Tokyo Japan and processed by an image analyzer (Image-Pro Plus 7.0).The results were treated statistically to obtain the mean particle adhesive force. The powder used was a polydisperse sample of microcrystalline cellulose (ρ=1.62 kg m−3). The materials used as substrates were a membrane of cellulose ester 0.2 μm of porosity, brand Shleicher & Shuell - Filtration Life Science, and a compressed particulate (tablets) made of microcrystalline cellulose (Sigma-Aldrich). A microcentrifuge that reached a maximum rotation speed of 14000 rpm which contained specially designed centrifuge tubes was used in the adhesion force measurements. Compression speeds (presson) were applied to each of the experimental runs at 1000, 2000 and 5000 rpm. To detach the particles from the substrate surface, eight cleaning speeds (spin-off) were used. Detachment was done at the centrifugal speeds of: 1000, 3000, 5000, 7000, 9000, 11000, 13000, and 14000 rpm for 1 min. Five particle diameter sizes were studied: 9 15, 15.1 22, 22.1 30, 30.1 42, and 42.1 60 μm. It was observed that the adhesion force increases linearly with the particle diameter, within the range studied and that increased compression speed has an influence on the process of particles detaching. It was possible to obtain a relationship between the adhesion force and diameter of the particles adhered to substrates analyzed The adhesion force experimental results and the adhesion force theoretical values using the models proposed by Derjaguin, Muller and Toporov (DMT) and Johnson, Kendall and Roberts (JKR) were compared. Although the JKR Model was the closest one to the experimental results, the adhesion force theoretical values were far higher than the experimental values. Finally a correction constant (kc) was proposed in order to correlate the theoretical values of adhesion force to the experimental values. / Adesão entre pós e superfície desempenha um papel importante em diversas áreas tecnológicas, tais como as operações de secagem, microencapsulação, xerografia e impressão, e processos farmacêuticos e de alimentos. A adesão de partículas em superfícies sólidas é um fenômeno intimamente associado com estudos de higiene industrial e da poluição do ar. A técnica centrífuga para determinar a força de adesão é baseada no desprendimento de partículas de uma superfície do substrato, devido a força centrífuga. Esta técnica utiliza a análise de imagens para determinar o número de partículas aderidas sobre a superficie do substrato. O substrato com as partículas depositadas na sua superfície é rotacionado sucessivamente a velocidades cada vez mais elevadas e depois de cada rotação a uma determinada velocidade o número de partículas restantes na superfície é determinado e para isso utilizou-se o microscópio óptico (Olympus BX60) e o analisador de imagens Image Pro- Plus 7.0. Os resultados são tratados estatisticamente para obter a força de adesão média entre partícula e substrato. O pó utilizado foi uma amostra polidispersa de celulose microcristalina (ρ=1,62Kg m-3). Os materiais utilizados como substratos foram uma membrana filtrante de éster de celulose de 0,2 μm de porosidade, marca Shleicher & Shuell - Filtration Life Science, e um comprimido de celulose microcristalina (Sigma-Aldrich). Utilizou-se, nos experimentos, uma microcentrífuga (MA 860, Marconi Equipamentos), com velocidade máxima de rotação era de 14000 rpm que continha dois tubos nos quais foram colocados adaptadores, cuja finalidade era de sustentar os substratos contendo o material pulverulento distribuído em sua superfície. Para cada substrato foi aplicada a força de compressão (press-on), de 1000, 2000 e 5000 rpm e para separar as partículas da superfície do substrato foram aplicadas forças de desprendimento (spin-off), de 1000, 3000, 5000, 7000, 9000, 11000, 13000 e 14000 rpm. As faixas de diâmetro das partículas de celulose microcristalina utilizadas nos experimentos foram: 9 15, 15,1 22, 22,1 30, 30,1 42 e 42,1 60 μm. Constatou-se que a força de adesão aumentou com o acréscimo da velocidade de rotação da centrífuga aplicada na compressão e com o aumento do tamanho das partículas do material pulverulento. Foi possível obter uma relação entre a força de adesão e o diâmetro das partículas aderidas para os substratos analisados. Os resultados experimentais da força de adesão e os valores teóricos da força de adesão calculados usando os modelos de Derjaguin, Muller and Toporov (DMT) e Johnson, Kendall and Roberts (JKR) foram comparados e embora o modelo de JKR tenha sido o que mais se aproximou dos resultados experimentais, os valores de força de adesão teórica foram distantes e superiores aos valores obtidos experimentalmente. Finalmente, foi possível obter constantes de correção kc que relacionam a força de adesão teórica com a força de adesão observada experimentalmente.
127

Dissociação de partículas num potencial rugoso sob a ação de perturbação dependente do tempo / Dissociation of particles in a rough potential under the action of time-dependent perturbation

Forlevesi, Murilo Deliberali [UNESP] 18 July 2017 (has links)
Submitted by Murilo Deliberali Forlevesi null (forlevesi@gmail.com) on 2017-10-02T23:49:59Z No. of bitstreams: 1 Tese Mestrado.pdf: 5097523 bytes, checksum: 3d85c58a65e1e0f4ff951cafa69bb7e5 (MD5) / Approved for entry into archive by Monique Sasaki (sayumi_sasaki@hotmail.com) on 2017-10-03T16:12:29Z (GMT) No. of bitstreams: 1 forlevesi_md_me_rcla.pdf: 5097523 bytes, checksum: 3d85c58a65e1e0f4ff951cafa69bb7e5 (MD5) / Made available in DSpace on 2017-10-03T16:12:29Z (GMT). No. of bitstreams: 1 forlevesi_md_me_rcla.pdf: 5097523 bytes, checksum: 3d85c58a65e1e0f4ff951cafa69bb7e5 (MD5) Previous issue date: 2017-07-18 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / O objetivo deste trabalho é estudar a dinâmica e o controle da fotodissociação de uma molécula diatômica submetida a um potencial rugoso, o qual é aplicado em diversas áreas da ciência para modelar processos naturais, através da introdução de uma perturbação dependente do tempo e de um termo dissipativo. O estudo faz uma análise inicial das alterações que ocorrem na dinâmica de uma molécula submetida ao potencial de Morse rugoso, em seguida o sistema é perturbado através da introdução de um campo elétrico, é mostrado um estudo no potencial sem a rugosidade que consiste na criação de um mecanismo para gerar trajetórias estáveis em regiões de transição de energia, faz-se uma aplicação deste resultado visando o controle do processo de fotoassociação. Para o potencial de Morse rugoso forçado estuda-se a dinâmica do sistema, a qual revela o aparecimento de novas regiões de estabilidade na vizinhança do mínimo de potencial, a probabilidade de fotodissociação molecular para este sistema é analisada com ênfase no controle dos parâmetros (constantes do termo rugoso) . Por fim introduz-se a dissipação e é feito um estudo da convergência das diversas condições iniciais para regiões específicas do espaço de fase o que mostra que a rugosidade pode ser utilizada como um mecanismo de atração de trajetórias. / The objective of this work is to study the dynamics and the control of the photodiscitation of a molecule submitted to a rough potential, which has been shown to be applied in diverse areas of science to model natural processes, through the introduction of a time and time dependent perturbation Dissipative. The study makes an initial analysis of the changes that occur in the dynamics of a molecule subjected to the rough Morse potential, then the system is disturbed by the introduction of an electric field, a study is shown in the potential without the roughness consisting in the creation of A mechanism to generate stable trajectories in regions of energy transition is made an application of this result aiming the control of the photoassociation process. For the forced roughness morse potential, we study the dynamics of the system, which reveals the appearance of new stability regions in the vicinity of the minimum potential, the probability of molecular photodissociation for this system is analyzed with emphasis on the control of the parameters Of the rough term). Finally the dissipation is introduced and an analysis is made of the convergence of the various initial conditions for specific regions of the phase space which shows that the roughness can be used with a trajectory attraction mechanism.
128

Seleção de atributos relevantes para aprendizado de máquina utilizando a abordagem de Rough Sets. / Machine learning feature subset selection using Rough Sets approach.

Adriano Donizete Pila 25 May 2001 (has links)
No Aprendizado de Máquina Supervisionado---AM---o algoritmo de indução trabalha com um conjunto de exemplos de treinamento, no qual cada exemplo é constituído de um vetor com os valores dos atributos e as classes, e tem como tarefa induzir um classificador capaz de predizer a qual classe pertence um novo exemplo. Em geral, os algoritmos de indução baseiam-se nos exemplos de treinamento para a construção do classificador, sendo que uma representação inadequada desses exemplos, bem como inconsistências nos mesmos podem tornar a tarefa de aprendizado difícil. Um dos problemas centrais de AM é a Seleção de um Subconjunto de Atributos---SSA---cujo objetivo é diminuir o número de atributos utilizados na representação dos exemplos. São três as principais razões para a realização de SSA. A primeira razão é que a maioria dos algoritmos de AM, computacionalmente viáveis, não trabalham bem na presença de vários atributos. A segunda razão é que, com um número menor de atributos, o conceito induzido através do classificador pode ser melhor compreendido. E, a terceira razão é o alto custo para coletar e processar grande quantidade de informações. Basicamente, são três as abordagens para a SSA: embedded, filtro e wrapper. A Teoria de Rough Sets---RS---é uma abordagem matemática criada no início da década de 80, cuja principal funcionalidade são os redutos, e será tratada neste trabalho. Segundo essa abordagem, os redutos são subconjuntos mínimos de atributos que possuem a propriedade de preservar o poder de descrição do conceito relacionado ao conjunto de todos os atributos. Neste trabalho o enfoque esta na abordagem filtro para a realização da SSA utilizando como filtro os redutos calculados através de RS. São descritos vários experimentos sobre nove conjuntos de dados naturais utilizando redutos, bem como outros filtros para SSA. Feito isso, os atributos selecionados foram submetidos a dois algoritmos simbólicos de AM. Para cada conjunto de dados e indutor, foram realizadas várias medidas, tais como número de atributos selecionados, precisão e números de regras induzidas. Também, é descrito um estudo de caso sobre um conjunto de dados do mundo real proveniente da área médica. O objetivo desse estudo pode ser dividido em dois focos: comparar a precisão dos algoritmos de indução e avaliar o conhecimento extraído com a ajuda do especialista. Embora o conhecimento extraído não apresente surpresa, pôde-se confirmar algumas hipóteses feitas anteriormente pelo especialista utilizando outros métodos. Isso mostra que o Aprendizado de Máquina também pode ser visto como uma contribuição para outros campos científicos. / In Supervised Machine Learning---ML---an induction algorithm is typically presented with a set of training examples, where each example is described by a vector of feature values and a class label. The task of the induction algorithm is to induce a classifier that will be useful in classifying new cases. In general, the inductive-learning algorithms rely on existing provided data to build their classifiers. Inadequate representation of the examples through the description language as well as inconsistencies in the training examples can make the learning task hard. One of the main problems in ML is the Feature Subset Selection---FSS---problem, i.e. the learning algorithm is faced with the problem of selecting some subset of feature upon which to focus its attention, while ignoring the rest. There are three main reasons that justify doing FSS. The first reason is that most ML algorithms, that are computationally feasible, do not work well in the presence of many features. The second reason is that FSS may improve comprehensibility, when using less features to induce symbolic concepts. And, the third reason for doing FSS is the high cost in some domains for collecting data. Basically, there are three approaches in ML for FSS: embedded, filter and wrapper. The Rough Sets Theory---RS---is a mathematical approach developed in the early 1980\'s whose main functionality are the reducts, and will be treated in this work. According to this approach, the reducts are minimal subsets of features capable to preserve the same concept description related to the entire set of features. In this work we focus on the filter approach for FSS using as filter the reducts obtained through the RS approach. We describe a series of FSS experiments on nine natural datasets using RS reducts as well as other filters. Afterwards we submit the selected features to two symbolic ML algorithms. For each dataset, various measures are taken to compare inducers performance, such as number of selected features, accuracy and number of induced rules. We also present a case study on a real world dataset from the medical area. The aim of this case study is twofold: comparing the induction algorithms performance as well as evaluating the extracted knowledge with the aid of the specialist. Although the induced knowledge lacks surprising, it allows us to confirm some hypothesis already made by the specialist using other methods. This shows that Machine Learning can also be viewed as a contribution to other scientific fields.
129

Esboço no processo de projeto: uma proposta de análise

Tonelli, Fernanda Destro 29 September 2017 (has links)
Submitted by Geandra Rodrigues (geandrar@gmail.com) on 2018-01-09T16:55:11Z No. of bitstreams: 1 fernandadestrotonelli.pdf: 2889878 bytes, checksum: 7d0405c35b056301112f04a3884d2378 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2018-01-23T11:30:19Z (GMT) No. of bitstreams: 1 fernandadestrotonelli.pdf: 2889878 bytes, checksum: 7d0405c35b056301112f04a3884d2378 (MD5) / Made available in DSpace on 2018-01-23T11:30:19Z (GMT). No. of bitstreams: 1 fernandadestrotonelli.pdf: 2889878 bytes, checksum: 7d0405c35b056301112f04a3884d2378 (MD5) Previous issue date: 2017-09-29 / Cabe à representação gráfica a materialização das ideias do projetista, para que deixem de ser meras divagações e tomem formas e proporções. O processo de refinamento de solução se traduz em um ciclo composto pela interação entre o plano mental do projetista e a realidade, com inter-relação entre os momentos de idealização, criação e percepção. A utilização do denominado “repertório” do projetista, as condições de formação acadêmica e de vivência que auxiliam o projetista na ampliação e renovação do seu repertório pessoal e na anterior apreensão e percepção do ambiente são fatores que serão levantados durante a análise para fomentar o diagnóstico. Delimita-se o escopo do presente estudo os esboços na fase de concepção de propostas, ou seja, nos períodos iniciais de criação. A metodologia proposta para tanto é moldada conforme as necessidades e a pertinência a fim de diagnosticar o esboço. Inicialmente o esboço passa pela decomposição em camadas de linguagens – semântica, gráfica e analítica –, em seguida a decomposição da linguagem gráfica – tipologias de desenho, aplicação do desenho e vocabulário –, e a avaliação bidimensional. A formulação de um exercício aplicado para levantamento de dados dos participantes e de esboços para análise. Os resultados validam a utilização do quadro de análises enquanto método analítico. / It is up to the graphic representation, a materialization of the ideas of the designer, so that they distribute themselves in forms and proportions. The process of solution refinement and translation into a cycle of danger for the interaction between the designer's mental plane and reality, with an interrelationship between the moments of idealization, creation and perception. The use of the so-called "repertoire" of the designer as conditions of academic training and experience that help the designer in the expansion and renewal of his personal repertoire and in the previous apprehension and perception of the environment are factors that are raised during an analysis to promote the diagnosis. The scope of the present study is limited to the sketches at the proposal design stage, in the initial creation periods. A methodology proposed for both is shaped according to needs and pertinence in order to diagnose the sketch. Initially the sketch goes through the decomposition of language layers - semantics, graph and analytics - into a decomposition of the graphic language - typologies of drawing, application of the drawing and vocabulary - and a two-dimensional evaluation. An exercise formulation for collecting participant data and sketches for analysis. The results are valid for the use of the analytical framework, analytical method.
130

Jämförande studie av LEM2 och Dynamiska Redukter / Comparison of LEM2 and a Dynamic Reduct Classification Algorithm

Leifler, Ola January 2002 (has links)
This thesis presents the results of the implementation and evaluation of two machine learning algorithms [Baz98, GB97]based on notions from Rough Set theory [Paw82]. Both algorithms were implemented and tested using the Weka [WF00]software framework. The main purpose for doing this was to investigate whether the experimental results obtained in [Baz98]could be reproduced, by implementing both algorithms in a framework that provided common functionalities needed by both. As a result of this thesis, a Rough Set framework accompanying the Weka system was designed and implemented, as well as three methods for discretization and three classi cation methods. The results of the evaluation did not match those obtained by the original authors. On two standard benchmarking datasets also used previously in [Baz98](Breast Cancer and Lymphography), signi cant results indicating that one of the algorithms performed better than the other could not be established, using the Students t- test and a con dence limit of 95%. However, on two other datasets (Balance Scale and Zoo) differences could be established with more than 95% signi cance. The Dynamic Reduct Approach scored better on the Balance Scale dataset whilst the LEM2 Approach scored better on the Zoo dataset.

Page generated in 0.0637 seconds