• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 132
  • 39
  • 33
  • 21
  • 11
  • 9
  • 9
  • 7
  • 6
  • 4
  • 4
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 317
  • 317
  • 160
  • 66
  • 62
  • 58
  • 44
  • 44
  • 37
  • 37
  • 36
  • 35
  • 35
  • 33
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

An?lise de DFA e de agrupamento do perfil de densidade de po?os de petr?leo

Costa, Kleber Carlos de Oliveira 22 April 2009 (has links)
Made available in DSpace on 2014-12-17T14:08:35Z (GMT). No. of bitstreams: 1 KleberCOCpdf.pdf: 2178209 bytes, checksum: 588b533d30c060af9cf941e7001d3372 (MD5) Previous issue date: 2009-04-22 / In recent years, the DFA introduced by Peng, was established as an important tool capable of detecting long-range autocorrelation in time series with non-stationary. This technique has been successfully applied to various areas such as: Econophysics, Biophysics, Medicine, Physics and Climatology. In this study, we used the DFA technique to obtain the Hurst exponent (H) of the profile of electric density profile (RHOB) of 53 wells resulting from the Field School of Namorados. In this work we want to know if we can or not use H to spatially characterize the spatial data field. Two cases arise: In the first a set of H reflects the local geology, with wells that are geographically closer showing similar H, and then one can use H in geostatistical procedures. In the second case each well has its proper H and the information of the well are uncorrelated, the profiles show only random fluctuations in H that do not show any spatial structure. Cluster analysis is a method widely used in carrying out statistical analysis. In this work we use the non-hierarchy method of k-means. In order to verify whether a set of data generated by the k-means method shows spatial patterns, we create the parameter ? (index of neighborhood). High ? shows more aggregated data, low ? indicates dispersed or data without spatial correlation. With help of this index and the method of Monte Carlo. Using ? index we verify that random cluster data shows a distribution of ? that is lower than actual cluster ?. Thus we conclude that the data of H obtained in 53 wells are grouped and can be used to characterize space patterns. The analysis of curves level confirmed the results of the k-means / Nos ?ltimos anos, o DFA introduzido por Peng, foi estabelecido como uma importante ferramenta capaz de detectar autocorrela??o de longo alcance em s?ries temporais com n?o-estacionaridade. Esta t?cnica vem sendo aplicado com sucesso a diversas ?reas tais como: Econofis?ca, Biof?sica, Medicina, F?sica e Climatologia. No presente trabalho, utilizamos a t?cnica do DFA para obter o expoente de Hurst (H) do perfil el?trico de densidade (RHOB) de 53 po?os provindos do Campo Escola de Namorado. Neste trabalho queremos saber se podemos, ou n?o, utilizar este expoente para caracterizar espacialmente o campo. Duas hip?teses surgem: Na primeira o conjunto dos H reflete a geologia local, po?os com mesmo H se encontram pertos, e ent?o se pode pensar em utilizar H em procedimentos geoestat?sticos espaciais. Na segunda hip?tese cada po?o tem seu H, a informa??o dos H de cada po?o est? descorrelacionada e o conjunto dos perfis mostra apenas flutua??es aleat?rias em H que n?o revelam qualquer estrutura espacial. A an?lise de agrupamentos ? um m?todo bastante utilizado na realiza??o de an?lises estat?sticas. Nesta disserta??o utilizamos o m?todo de agrupamento n?o hier?rquico chamado m?todo do k-m?dia. Com o objetivo de verificar se um conjunto de dados gerados pelo m?todo do k-m?dia, ou de forma aleat?ria, forma padr?es espaciais, criamos o par?metro ? (?ndice de vizinhan?a). Altos ? implicam em dados mais agregados, baixos ? em dados dispersos ou sem correla??o espacial. Com aux?lio deste ?ndice e do m?todo de Monte Carlo verificamos que os dados agrupados aleatoriamente apresentam uma distribui??o mais baixa de ? do que os obtidos dos dados concretos e agrupados pelo k-m?dia. Desta forma conclu?mos que os dados de H obtidos nos 53 po?os est?o agrupados e podem ser usados na caracteriza??o espacial de campos. A an?lise de curvas de n?vel confirmou o resultado do k-m?dia
222

Aplicação do processo de descoberta de conhecimento em dados do poder judiciário do estado do Rio Grande do Sul / Applying the Knowledge Discovery in Database (KDD) Process to Data of the Judiciary Power of Rio Grande do Sul

Schneider, Luís Felipe January 2003 (has links)
Para explorar as relações existentes entre os dados abriu-se espaço para a procura de conhecimento e informações úteis não conhecidas, a partir de grandes conjuntos de dados armazenados. A este campo deu-se o nome de Descoberta de Conhecimento em Base de Dados (DCBD), o qual foi formalizado em 1989. O DCBD é composto por um processo de etapas ou fases, de natureza iterativa e interativa. Este trabalho baseou-se na metodologia CRISP-DM . Independente da metodologia empregada, este processo tem uma fase que pode ser considerada o núcleo da DCBD, a “mineração de dados” (ou modelagem conforme CRISP-DM), a qual está associado o conceito “classe de tipo de problema”, bem como as técnicas e algoritmos que podem ser empregados em uma aplicação de DCBD. Destacaremos as classes associação e agrupamento, as técnicas associadas a estas classes, e os algoritmos Apriori e K-médias. Toda esta contextualização estará compreendida na ferramenta de mineração de dados escolhida, Weka (Waikato Environment for Knowledge Analysis). O plano de pesquisa está centrado em aplicar o processo de DCBD no Poder Judiciário no que se refere a sua atividade fim, julgamentos de processos, procurando por descobertas a partir da influência da classificação processual em relação à incidência de processos, ao tempo de tramitação, aos tipos de sentenças proferidas e a presença da audiência. Também, será explorada a procura por perfis de réus, nos processos criminais, segundo características como sexo, estado civil, grau de instrução, profissão e raça. O trabalho apresenta nos capítulos 2 e 3 o embasamento teórico de DCBC, detalhando a metodologia CRISP-DM. No capítulo 4 explora-se toda a aplicação realizada nos dados do Poder Judiciário e por fim, no capítulo 5, são apresentadas as conclusões. / With the purpose of exploring existing connections among data, a space has been created for the search of Knowledge an useful unknown information based on large sets of stored data. This field was dubbed Knowledge Discovery in Databases (KDD) and it was formalized in 1989. The KDD consists of a process made up of iterative and interactive stages or phases. This work was based on the CRISP-DM methodology. Regardless of the methodology used, this process features a phase that may be considered as the nucleus of KDD, the “data mining” (or modeling according to CRISP-DM) which is associated with the task, as well as the techniques and algorithms that may be employed in an application of KDD. What will be highlighted in this study is affinity grouping and clustering, techniques associated with these tasks and Apriori and K-means algorithms. All this contextualization will be embodied in the selected data mining tool, Weka (Waikato Environment for Knowledge Analysis). The research plan focuses on the application of the KDD process in the Judiciary Power regarding its related activity, court proceedings, seeking findings based on the influence of the procedural classification concerning the incidence of proceedings, the proceduring time, the kind of sentences pronounced and hearing attendance. Also, the search for defendants’ profiles in criminal proceedings such as sex, marital status, education background, professional and race. In chapters 2 and 3, the study presents the theoretical grounds of KDD, explaining the CRISP-DM methodology. Chapter 4 explores all the application preformed in the data of the Judiciary Power, and lastly, in Chapter conclusions are drawn
223

Segmentação de imagens de enxertos ósseos utilizando watershed e k-médias

Almeida, Thallys Pereira de 20 September 2011 (has links)
Made available in DSpace on 2015-05-14T12:36:42Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 2379230 bytes, checksum: 73a7b47265b18a6a6d301602a81998f0 (MD5) Previous issue date: 2011-09-20 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The applicability of bone grafts in the recovery of bone tissue is an area that has been extensively studied and is constantly evolving. In the last years, several techniques for applying these grafts have been developed. Thus, there is a need of creating an automated method of analysis, objective, impartial and efficient evaluation of the results of these techniques. Several studies using image segmentation have been conducted in several areas. Among them we can cite the medical field, where the segmentation can be applied to define the image regions such as tumors, cells, glands, organs, tissue, cells, among others. Several segmentation methods were developed specifically to detect each one of these elements. Segmentations like these were traditionally performed manually. In some cases, the objects in an image were detected of a purely visual method, and no numerical data could accurately determinate the size or other properties of the picture. Evaluations like this become subjective to the interpretation of each researcher, and could bring impartial and unbiased results. Thus, the use of a computational method for carrying out this type of analysis is essential. This work presents a morphometric analysis method of the bone formation on bone grafts applied to mice that received implants of biomaterials. The technique employs a combination of segmentation algorithms k-means, and watershed in order to perform a segmentation based on the color represented by the L*a*b*. For identification of the region that corresponds to new bone formation, an analysis was performed using the HSL color system. Several experiments were performed with a large number of images and satisfactory results were obtained. The performance of the segmentation method on images of bones of rodents has been thoroughly evaluated by researches, who considered the process efficient and compatible with results obtained by experts. / A aplicação de enxertos ósseos na recuperação de tecidos ósseos é uma área que vem sendo bastante estudada e está em constante evolução. Nos últimos anos, diversas técnicas de aplicação desses enxertos vêm sendo desenvolvidas. Com isso, surge a necessidade da criação de um método de análise automático, objetivo, imparcial e eficiente de avaliação dos resultados dessas técnicas. Diversas pesquisas utilizando segmentação de imagens vêm sendo realizadas nas mais diversas áreas. Entre elas, podemos citar a área médica, onde as segmentações podem ser aplicadas para delimitar na imagem regiões como tumores, células, glândulas, órgãos, tecidos celulares, entre outros. Diversos métodos de segmentação podem ser desenvolvidos especificamente para delimitar cada um desses elementos. Segmentações dessa natureza eram realizadas tradicionalmente de forma manual, ou então, tentava-se detectar os objetos na imagem de forma meramente visual, sem nenhum dado numérico que pudesse avaliar de forma precisa o tamanho ou as demais propriedades de estudo na imagem. Avaliações desse tipo acabam ficando sujeitas à interpretação de cada pesquisador, podendo trazer resultados imparciais e tendenciosos. Dessa forma, a utilização de um método computacional torna-se essencial para a realização deste tipo de análise. O presente trabalho apresenta um método de avaliação morfométrica para análise da neoformação óssea sobre enxertos ósseos aplicados a cobaias que receberam implantes de biomateriais. A técnica emprega a combinação entre os algoritmos de segmentação k-médias e watershed a fim de realizar uma segmentação baseada na cor representada pelo sistema L*a*b*. Para identificar a região que corresponde à neoformação óssea, foi realizada uma análise através do sistema de cores HSL. Diversos experimentos foram realizados com um grande número de imagens e foram obtidos resultados satisfatórios. O desempenho do método de segmentação sobre imagens de ossos de roedores foi bem avaliado por especialistas, que consideraram o processo eficiente e os resultados compatíveis aos obtidos por especialistas na área.
224

Aplicação do processo de descoberta de conhecimento em dados do poder judiciário do estado do Rio Grande do Sul / Applying the Knowledge Discovery in Database (KDD) Process to Data of the Judiciary Power of Rio Grande do Sul

Schneider, Luís Felipe January 2003 (has links)
Para explorar as relações existentes entre os dados abriu-se espaço para a procura de conhecimento e informações úteis não conhecidas, a partir de grandes conjuntos de dados armazenados. A este campo deu-se o nome de Descoberta de Conhecimento em Base de Dados (DCBD), o qual foi formalizado em 1989. O DCBD é composto por um processo de etapas ou fases, de natureza iterativa e interativa. Este trabalho baseou-se na metodologia CRISP-DM . Independente da metodologia empregada, este processo tem uma fase que pode ser considerada o núcleo da DCBD, a “mineração de dados” (ou modelagem conforme CRISP-DM), a qual está associado o conceito “classe de tipo de problema”, bem como as técnicas e algoritmos que podem ser empregados em uma aplicação de DCBD. Destacaremos as classes associação e agrupamento, as técnicas associadas a estas classes, e os algoritmos Apriori e K-médias. Toda esta contextualização estará compreendida na ferramenta de mineração de dados escolhida, Weka (Waikato Environment for Knowledge Analysis). O plano de pesquisa está centrado em aplicar o processo de DCBD no Poder Judiciário no que se refere a sua atividade fim, julgamentos de processos, procurando por descobertas a partir da influência da classificação processual em relação à incidência de processos, ao tempo de tramitação, aos tipos de sentenças proferidas e a presença da audiência. Também, será explorada a procura por perfis de réus, nos processos criminais, segundo características como sexo, estado civil, grau de instrução, profissão e raça. O trabalho apresenta nos capítulos 2 e 3 o embasamento teórico de DCBC, detalhando a metodologia CRISP-DM. No capítulo 4 explora-se toda a aplicação realizada nos dados do Poder Judiciário e por fim, no capítulo 5, são apresentadas as conclusões. / With the purpose of exploring existing connections among data, a space has been created for the search of Knowledge an useful unknown information based on large sets of stored data. This field was dubbed Knowledge Discovery in Databases (KDD) and it was formalized in 1989. The KDD consists of a process made up of iterative and interactive stages or phases. This work was based on the CRISP-DM methodology. Regardless of the methodology used, this process features a phase that may be considered as the nucleus of KDD, the “data mining” (or modeling according to CRISP-DM) which is associated with the task, as well as the techniques and algorithms that may be employed in an application of KDD. What will be highlighted in this study is affinity grouping and clustering, techniques associated with these tasks and Apriori and K-means algorithms. All this contextualization will be embodied in the selected data mining tool, Weka (Waikato Environment for Knowledge Analysis). The research plan focuses on the application of the KDD process in the Judiciary Power regarding its related activity, court proceedings, seeking findings based on the influence of the procedural classification concerning the incidence of proceedings, the proceduring time, the kind of sentences pronounced and hearing attendance. Also, the search for defendants’ profiles in criminal proceedings such as sex, marital status, education background, professional and race. In chapters 2 and 3, the study presents the theoretical grounds of KDD, explaining the CRISP-DM methodology. Chapter 4 explores all the application preformed in the data of the Judiciary Power, and lastly, in Chapter conclusions are drawn
225

Aplicação do processo de descoberta de conhecimento em dados do poder judiciário do estado do Rio Grande do Sul / Applying the Knowledge Discovery in Database (KDD) Process to Data of the Judiciary Power of Rio Grande do Sul

Schneider, Luís Felipe January 2003 (has links)
Para explorar as relações existentes entre os dados abriu-se espaço para a procura de conhecimento e informações úteis não conhecidas, a partir de grandes conjuntos de dados armazenados. A este campo deu-se o nome de Descoberta de Conhecimento em Base de Dados (DCBD), o qual foi formalizado em 1989. O DCBD é composto por um processo de etapas ou fases, de natureza iterativa e interativa. Este trabalho baseou-se na metodologia CRISP-DM . Independente da metodologia empregada, este processo tem uma fase que pode ser considerada o núcleo da DCBD, a “mineração de dados” (ou modelagem conforme CRISP-DM), a qual está associado o conceito “classe de tipo de problema”, bem como as técnicas e algoritmos que podem ser empregados em uma aplicação de DCBD. Destacaremos as classes associação e agrupamento, as técnicas associadas a estas classes, e os algoritmos Apriori e K-médias. Toda esta contextualização estará compreendida na ferramenta de mineração de dados escolhida, Weka (Waikato Environment for Knowledge Analysis). O plano de pesquisa está centrado em aplicar o processo de DCBD no Poder Judiciário no que se refere a sua atividade fim, julgamentos de processos, procurando por descobertas a partir da influência da classificação processual em relação à incidência de processos, ao tempo de tramitação, aos tipos de sentenças proferidas e a presença da audiência. Também, será explorada a procura por perfis de réus, nos processos criminais, segundo características como sexo, estado civil, grau de instrução, profissão e raça. O trabalho apresenta nos capítulos 2 e 3 o embasamento teórico de DCBC, detalhando a metodologia CRISP-DM. No capítulo 4 explora-se toda a aplicação realizada nos dados do Poder Judiciário e por fim, no capítulo 5, são apresentadas as conclusões. / With the purpose of exploring existing connections among data, a space has been created for the search of Knowledge an useful unknown information based on large sets of stored data. This field was dubbed Knowledge Discovery in Databases (KDD) and it was formalized in 1989. The KDD consists of a process made up of iterative and interactive stages or phases. This work was based on the CRISP-DM methodology. Regardless of the methodology used, this process features a phase that may be considered as the nucleus of KDD, the “data mining” (or modeling according to CRISP-DM) which is associated with the task, as well as the techniques and algorithms that may be employed in an application of KDD. What will be highlighted in this study is affinity grouping and clustering, techniques associated with these tasks and Apriori and K-means algorithms. All this contextualization will be embodied in the selected data mining tool, Weka (Waikato Environment for Knowledge Analysis). The research plan focuses on the application of the KDD process in the Judiciary Power regarding its related activity, court proceedings, seeking findings based on the influence of the procedural classification concerning the incidence of proceedings, the proceduring time, the kind of sentences pronounced and hearing attendance. Also, the search for defendants’ profiles in criminal proceedings such as sex, marital status, education background, professional and race. In chapters 2 and 3, the study presents the theoretical grounds of KDD, explaining the CRISP-DM methodology. Chapter 4 explores all the application preformed in the data of the Judiciary Power, and lastly, in Chapter conclusions are drawn
226

Eficiência energética de redes de sensores sem fio aplicada ao conforto térmico em ambientes fechados

Souza, Thales Ruano Barros de 21 February 2014 (has links)
Made available in DSpace on 2015-04-22T22:00:49Z (GMT). No. of bitstreams: 1 Thales Ruano Barros de Souza.pdf: 1498428 bytes, checksum: 00ad867812a75177cff9522fd68c06de (MD5) Previous issue date: 2014-02-21 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Wireless Sensor Networks can be used in several applications such as monitoring and study of thermal comfort in indoor environment. However, since the sensors nodes are battery powered, the cost of network maintenance can quickly exceed the cost of whole monitoring system. In this work, it is proposed and evaluated a routing protocol considering the monitored variables in sensors nodes to form groups of sensors in order to reduce the intra cluster communication. Our solution uses not only localization but also temperature and relative humidity collected by each sensor node to elect cluster heads (CHs). The k-means algorithm was used to group the correlated sensors nodes. Results show that the proposed scheme has a performance 50% higher than the state-of-the-art algorithms in relation to residual energy and network lifetime. Therefore there is a substantial gain when we exploit the correlation structure of the collected data to form groups and to elect CHs. / As Redes de Sensores Sem Fio (RSSFs) podem ser utilizadas em aplicações de monitoramento e estudo do conforto térmico em ambientes fechados, devido a sua capacidade de sensoriamento, baixo custo e implantação rápida. Porém o custo de manutenção pode ultrapassar o custo do próprio sistema de monitoramento, isso porque os nós sensores são alimentados por bateria. Nesta dissertação é proposto e avaliado um protocolo de roteamento que leva em consideração as variáveis monitoradas na formação dos grupos de nós sensores, para redução da comunicação intragrupo. A solução proposta utiliza, não apenas a localização dos nós sensores, mas também a temperatura e a umidade relativa coletadas por cada nó sensor, para a eleição dos cluster-heads (CHs). Para agrupar os nós sensores com medidas correlacionadas, utilizamos o algoritmo k-means, que agrupa instâncias similares. Os experimentos mostram que, em comparação com outros algoritmos da literatura, o consumo de energia chegou a ser reduzido em 50%. Portanto há um ganho substancial quando se explora a estrutura de correlação das variáveis coletadas na formação dos grupos e na eleição dos CHs.
227

Um novo algoritmo imunológico artificial para agrupamento de dados

Borges, Ederson 27 January 2010 (has links)
Made available in DSpace on 2016-03-15T19:38:14Z (GMT). No. of bitstreams: 1 Ederson Borges.pdf: 626219 bytes, checksum: d83887c1b3e2287f434525ac9701f0c7 (MD5) Previous issue date: 2010-01-27 / Clustering is an important data mining task from the field of Knowledge Discovery in Databases. There are several algorithms capable of performing clustering tasks, and the most popular ones involve the calculation of a similarity or distance measure among objects from the database. Many algorithms can perform clustering in a simple and efficient manner, but have drawbacks as a way to get the optimal number of partitions and the possibility of getting stuck in local optima solutions. To try and reduce these drawbacks this dissertation proposes a new clustering algorithm based on Artificial Immune Systems. This algorithm is characterized by the generation of multiple simultaneous high quality solutions in terms of the number of partitions (clusters) for the database and the use of a cost function that explicitly evaluates the quality of partitions, minimizing the inconvenience of getting stuck in local optima. The algorithm was tested using four databases known in the literature and obtained satisfactory results in terms of the diversity of solutions, but has a high computational cost compared to other algorithms tested. / Agrupamento de dados é uma importante tarefa da mineração de dados e descoberta de conhecimentos em bases de dados. Existem diversos algoritmos capazes de realizar a tarefa de agrupamento de dados, sendo que os mais populares envolvem o cálculo de similaridade ou distância entre objetos da base de dados. Boa parte dos algoritmos pode agrupar os dados de forma simples e eficiente, mas possui inconvenientes como a forma de obter o número ótimo de partições e a possibilidade de ficar preso em ótimos locais. Para tentar diminuir estes inconvenientes essa dissertação propõe um novo Algoritmo Imunológico para Agrupamento de Dados baseado em Sistemas Imunológicos Artificiais. Esse algoritmo é caracterizado pela geração de múltiplas soluções simultâneas de boa qualidade no que tange o número de partições (grupos) para a base de dados e uma função de custo que avalia explicitamente a qualidade dessas partições, minimizando o inconveniente de ficar preso em ótimos locais. O algoritmo foi testado utilizando quatro bases de dados conhecidas na literatura e obteve resultados satisfatórios no que tange a diversidade das soluções encontradas, mas apresentou um custo computacional elevado em relação a outros algoritmos testados.
228

Alternativas para seleção de touros da raça Nelore considerando características múltiplas de interesse econômico / Alternatives for election of bulls of the nelore race considering characteristic multiple of economic interest

José Eduardo do Val 25 May 2006 (has links)
Este estudo foi desenvolvido a partir de informações das avaliações genéticas de touros pertencentes a rebanhos participantes do Programa de Melhoramento Genético da Raça Nelore (PMGRN-Nelore Brasil), que desenvolve, desde 1995, um teste de progênie denominado Reprodução Programada (RP), o qual tem como finalidade principal de disponibilizar animais com valores genéticos mais confiáveis no mercado de reprodutores. Assim, as Diferenças Esperadas nas Progênies (DEPs) de 234 touros participantes da RP no período de 1996 a 2003 foram analisadas com os seguintes objetivos: 1- Avaliar o mérito genético dos touros ao longo dos anos, utilizando regressão linear entre a DEP e ano de participação do touro na RP para as características, peso aos 120 e 210 dias, efeitos direto e materno (DDPP120, DDPP210, DMPP120 e DMPP210); peso e perímetro escrotal aos 365 e 450 dias, efeito direto (DDP365, DDP450, DDPE365 e DDPE450) e idade ao primeiro parto (DDIPP); 2- Identificar, por meio de abordagens multivariadas, grupos de animais cujas DEPs apresentem padrões de semelhança, assim como discriminar as variáveis que mais influenciam na divisão dos grupos, numa tentativa de auxiliar a tomada de decisão nos sistemas de produção de bovinos de corte, com vistas a maximizar a produtividade. Os procedimentos multivariados de análises de agrupamento e componentes principais foram aplicados às DEPs de sete características (DMPP120, DMPP210, DDPP365, DDPP450, DDPE365, DDPE450 e DDIPP). As análises foram processadas com o auxílio do software Statistica (STATSOFT, 2004). As tendências genéticas das DEPs relacionadas com as características de fertilidade, DDPE365, DDPE450 e DDIPP, mostraram progressos genéticos de 0,051 e 0,061 cm e -0,026 mês por ano respectivamente, enquanto que DDPP450 foi à característica que obteve maior ganho genético dentre as DEPs de crescimento, 1,467 kg/ano. Com referência às abordagens multivariadas, a análise de agrupamento k-médias foi aplicada e o resultado envolvendo três grupos foi o melhor obtido, dos quais dois se destacaram quanto aos valores médios das DEPs. A importância desses dois grupos de touros foi confirmada pela análise de componentes principais que associou a eles valores superiores de DEPs diretas de peso e perímetro escrotal. A quantidade de variabilidade original retida pelos dois primeiros componentes principais foi de 70,22%. Foram observados progressos genéticos nos touros da Reprodução Programada para todas as características durante o período estudado, indicando que a estratégia de seleção praticada vem sendo efetiva e evidenciando a importância da contribuição dos touros da RP para o melhoramento das características reprodutivas e de crescimento da raça Nelore. Neste estudo pode-se verificar o poder classificatório e discriminatório das análises de agrupamentos e componentes principais, o que muito pode contribuir na classificação de touros, facilitando a seleção de animais em Programas de Melhoramento Genético. / This research was developed with genetic information of sires that belong to herds of the ?Programa de Melhoramento Genético da Raça Nelore? (PMGRN-Nelore Brasil), witch has been carried on, since 1995, a progeny test denominated ?Reprodução Programada? (RP), whose the main aim is to obtain reliable genetic values for sires market. Therefore, the Expected Progeny Difference (EPD) of 243 sires taking part of the RP from 1996 to 2003 were used with the following objectives of: 1- Evaluating the genetic merit over the years applying linear regression between the EPD and the year of the sires RP participation, for the following traits: weight at 120 and 210 days of age, direct and maternal effects (DDPP120, DDPP210, DMPP120 and DMPP210) weight and scrotal circumference at 365 and 450 days of age, direct effect (DDPP365, DDPP450, DDPE365 and DDPE450) and age at first calving (DDIPP); 2- Identifying groups of animals, whose, EPDs show similarity patterns, as well as, verifying which were the variable that showed greater power in discriminating group formations, trying to help the decisions making support in the beef cattle production system by multivariate approaches, in order to maximizing the productivity. The multivariate procedures of clusters analysis and principal components were applied in the EPDs from seven traits (DMPP120, DMPP210, DDPP365, DDPP450, DDPE365, DDPE450 and DDIPP). The analyses were performed by software Statistica (STATSOFT, 2004). The genetic trends of the EPD related to the fertility traits, DDDPE365, DDPE450 e DDIPP, showed some genetic progress of 0.051 and 0.061 cm and ? 0.026 month per year respectively, while, the DDPP450 was the trait that obtained the highest genetic gain in the growth EPDs, 1.467 kg/year. About the multivariate approaches, the k-means clustering analysis was applied and the results of three groups formation were the best option, two of them stood out in relation to values of the EPDs means. The importance of these two groups was confirmed by the analyses of principal components that associate the direct EPDs of weight and scrotal circumference values to them. The quantity of original variability kept in the first main components was 70.22%. It was observed genetic progress in the RP sires for every trait during the studied period, indicating that the selection has been effective and evidencing how important the contribution of the RP sires for the reproductive and growth traits for the Nelore breed improvement is. In this research, the classificatory and discriminatory power of cluster analyses and principal components could be verify, and certainly could contribute in the sire classification, helping the selection in the Animal Breeding Program.
229

Elaboration d'un score de vieillissement : propositions théoriques / Development of a score of ageing : proposal for a mathematical theory

Sarazin, Marianne 21 May 2013 (has links)
Le vieillissement fait actuellement l’objet de toutes les attentions, constituant en effet un problème de santé publique majeur. Sa description reste cependant complexe en raison des intrications à la fois individuelles et collectives de sa conceptualisation et d’une dimension subjective forte. Les professionnels de santé sont de plus en plus obligés d’intégrer cette donnée dans leur réflexion et de proposer des protocoles de prise en charge adaptés. Le vieillissement est une évolution inéluctable du corps dont la quantification est établie par l’âge dépendant du temps dit « chronologique ». Ce critère âge est cependant imparfait pour mesurer l’usure réelle du corps soumise à de nombreux facteurs modificateurs dépendant des individus. Aussi, partant de réflexions déjà engagées et consistant à substituer cet âge chronologique par un critère composite appelé « âge biologique », aboutissant à la création d’un indicateur ou score de vieillissement et sensé davantage refléter le vieillissement individuel, une nouvelle méthodologie est proposée adaptée à la pratique de médecine générale. Une première phase de ce travail a consisté à sonder les médecins généralistes sur leur perception et leur utilisation des scores cliniques en pratique courante par l’intermédiaire d’une enquête qualitative et quantitative effectuée en France métropolitaine. Cette étude a montré que l’adéquation entre l’utilisation déclarée et la conception intellectualisée des scores restait dissociée. Les scores constituent un outil d’aide à la prise en charge utile pour cibler une approche systémique souvent complexe dans la mesure où ils sont simples à utiliser (peu d’items et items adaptés à la pratique) et à la validité scientifiquement comprise par le médecin. Par ailleurs, l’âge du patient a été cité comme un élément prépondérant influençant le choix adéquat du score par le médecin généraliste. Cette base de travail a donc servi à proposer une modélisation de l’âge biologique dont la réflexion a porté tant sur le choix du modèle mathématique que des variables constitutives de ce modèle. Une sélection de variables marqueurs du vieillissement a été effectuée à partir d’une revue de la littérature et tenant compte de leur possible intégration dans le processus de soin en médecine générale. Cette sélection a été consolidée par une approche mathématique selon un processus de sélection ascendant à partir d’un modèle régressif. Une population dite « témoin » au vieillissement considéré comme normal a été ensuite constituée servant de base comparative au calcul de l’âge biologique. Son choix a été influencé dans un premier temps par les données de la littérature puis secondairement selon un tri par classification utilisant la méthode des nuées dynamiques. Un modèle de régression linéaire simple a ensuite été construit mais avec de données normalisées selon la méthode des copules gaussiennes suivi d’une étude des queues de distribution marginales. Les résultats ainsi obtenus laissent entrevoir des perspectives intéressantes de réflexion pour approfondir le calcul d’un âge biologique et du score en découlant en médecine générale, sa validation par une étude de morbidité constituant l’étape ultime de ce travail / Ageing is nowadays a major public health problem. Its description remains complex, both individual and collective conceptualization being interlaced with a strong subjective dimension. Health professionals are increasingly required to integrate ageing and prevention into their thought and to create adapted protocol and new tools. Ageing characterizes unavoidable changes in the body. It is usually measured by the age dependent on time and called “chronological age”. However, the criterion « chronological age » reflects imperfectly the actual ageing of the body depending on many individual factors. Also, this criterion has for a long time been replaced by another composite criterion called « biological age » supposed to better reflect the ageing process. In order to build a score of ageing adapted to general practice, a new methodology is proposed suitable for general practitioners. First of all, a first phase of this work consisted in a qualitative and quantitative survey conducted among general practitioners in France. This survey was done to obtain data on the use of predictive scores by general practitioners in their daily practice and their appropriateness, as well as to know the reasons of their non-utilization. Results showed that predictive scores are useful tools in daily practice to target a complex systemic approach insofar as they are simple to use (few items, items suitable for general practice) and their scientific validity is easily understood. In addition, patient’s age has been cited as a major criterion influencing general practitioners use of a predictive score. Results of this first phase have been used to propose a model of biological ageing, with reflexion on mathematical model as well as on component variables of this model. A selection of variables as markers of ageing was carried out from a review of the literature, taking into account their capacity of integration in general practitioners’ daily practice. This selection was completed by a mathematical approach based on an ascending process on a regression model. A control sample, assumed to be "normal ageing" on the basis of current knowledge in general medicine, was then used. This sample was first carried out from a review of the literature and then from a K-means method that classified this sample into several groups. The statistical dependence of measured variables was modeled by a Gaussian copula (taking into account only linear correlations of pairs). A standardized biological age was defined explicitly from these correlation coefficients. The tails of marginal distribution (method of excess) were estimated to enhance the discriminating power of the model. Results suggest interesting possibilities for a biological ageing calculation, and the predictive score they provide, suitable for general practitioners’ daily practice. Its validation by a morbidity and mortality survey will constitute the final phase of this work
230

Intelligent knowledge discovery on building energy and indoor climate data

Raatikainen, M. (Mika) 29 November 2016 (has links)
Abstract A future vision of enabling technologies for the needs of energy conservation as well as energy efficiency based on the most important megatrends identified, namely climate change, urbanization, and digitalization. In the United States and in the European Union, about 40% of total energy consumption goes into energy use by buildings. Moreover, indoor climate quality is recognized as a distinct health hazard. On account of these two factors, energy efficiency and healthy housing are active topics in international research. The main aims of this thesis are to study which elements affect indoor climate quality, how energy consumption describes building energy efficiency and to analyse the measured data using intelligent computational methods. The data acquisition technology used in the studies relies heavily on smart metering technologies based on Building Automation Systems (BAS), big data and the Internet of Things (IoT). The data refining process presented and used is called Knowledge Discovery in Databases (KDD). It contains methods for data acquisition, pre-processing, data mining, visualisation and interpretation of results, and transformation into knowledge and new information for end users. In this thesis, four examples of data analysis and knowledge deployment concerning small houses and school buildings are presented. The results of the case studies show that the data mining methods used in building energy efficiency and indoor climate quality analysis have a great potential for processing a large amount of multivariate data effectively. An innovative use of computational methods provides a good basis for researching and developing new information services. In the KDD process, researchers should co-operate with end users, such as building management and maintenance personnel as well as residents, to achieve better analysis results, easier interpretation and correct conclusions for exploiting the knowledge. / Tiivistelmä Tulevaisuuden visio energiansäästön sekä energiatehokkuuden mahdollistavista teknologioista pohjautuu tärkeimpiin tunnistettuihin megatrendeihin, ilmastonmuutokseen, kaupungistumiseen ja digitalisoitumiseen. Yhdysvalloissa ja Euroopan unionissa käytetään noin 40 % kokonaisenergiankulutuksesta rakennusten käytön energiatarpeeseen. Myös rakennusten sisäilmaston on havaittu olevan ilmeinen terveysriski. Perustuen kahteen edellä mainittuun tekijään, energiatehokkuus ja asumisterveys ovat aktiivisia tutkimusaiheita kansainvälisessä tutkimuksessa. Tämän väitöskirjan päätavoitteena on ollut tutkia, mitkä elementit vaikuttavat sisäilmastoon ja rakennusten energiatehokkuuteen pääasiassa analysoimalla mittausdataa käyttäen älykkäitä laskennallisia menetelmiä. Tutkimuksissa käytetyt tiedonkeruuteknologiat perustuvat etäluentaan ja rakennusautomaatioon, big datan hyödyntämiseen ja esineiden internetiin (IoT). Väitöskirjassa esiteltävä tietämyksen muodostusprosessi (KDD) koostuu tiedonkeruusta,datan esikäsittelystä, tiedonlouhinnasta, visualisoinnista ja tutkimustulosten tulkinnasta sekä tietämyksen muodostamisesta ja oleellisen informaation esittämisestä loppukäyttäjille. Tässä väitöstutkimuksessa esitellään neljän data-analyysin ja niiden pohjalta muodostetun tietämyksen hyödyntämisen esimerkkiä, jotka liittyvät pientaloihin ja koulurakennuksiin. Esimerkkitapausten tulokset osoittavat, että käytetyillä tiedonlouhinnan menetelmillä sovellettuna rakennusten energiatehokkuus- ja sisäilmastoanalyyseihin on mahdollista jalostaa suuria monimuuttuja-aineistoja tehokkaasti. Laskennallisten menetelmien innovatiivinen käyttö antaa hyvät perusteet tutkia ja kehittää uusia informaatiopalveluja. Tutkijoiden tulee tehdä yhteistyötä loppukäyttäjinä toimivien kiinteistöhallinnan ja -ylläpidon henkilöstön sekä asukkaiden kanssa saavuttaakseen parempia analyysituloksia, helpompaa tulosten tulkintaa ja oikeita johtopäätöksiä tietämyksen hyödyntämiseksi.

Page generated in 0.0413 seconds