Spelling suggestions: "subject:"estatística""
121 |
Extração automática de termos simples baseada em aprendizado de máquina / Automatic simple term extraction based on machine learningLaguna, Merley da Silva Conrado 06 May 2014 (has links)
A Mineração de Textos (MT) visa descobrir conhecimento inovador nos textos não estruturados. A extração dos termos que representam os textos de um domínio é um dos passos mais importantes da MT, uma vez que os resultados de todo o processo da MT dependerão, em grande parte, da qualidade dos termos obtidos. Nesta tese, considera-se como termos as unidades lexicais realizadas para designar conceitos em um cenário tematicamente restrito. Para a extração dos termos, pode-se fazer uso de abordagens como: estatística, linguística ou híbrida. Normalmente, para a Mineração de Textos, são utilizados métodos estatísticos. A aplicação desses métodos é computacionalmente menos custosa que a dos métodos linguísticos, entretanto seus resultados são geralmente menos interpretáveis. Ambos métodos, muitas vezes, não são capazes de identificar diferenças entre termos e não-termos, por exemplo, os estatísticos podem não identificar termos raros ou que têm a mesma frequência de não-termos e os linguísticos podem não distinguir entre termos que seguem os mesmo padrões linguísticos dos não-termos. Uma solução para esse problema é utilizar métodos híbridos, de forma a combinar as estratégias dos métodos linguísticos e estatísticos, visando atenuar os problemas inerentes a cada um deles. Considerando as características dos métodos de extração de termos, nesta tese, foram investigados métodos estatísticos, formas de obtenção de conhecimento linguístico e métodos híbridos para a extração de termos simples - aqueles constituídos de somente um radical, com ou sem afixos - na língua portuguesa do Brasil. Quatro medidas estatísticas (tvq, tv, tc e comGram), originalmente utilizadas em outras tarefas, foram avaliadas na extração de termos simples, sendo que duas delas (tvq e tv) foram consideradas relevantes para essa tarefa. Quatro novas medidas híbridas (n_subst., n_adj., n_po e n_verbo) foram propostas, sendo que três delas (n_subst,. n_adj., e n_po) auxiliaram na extração de termos. Normalmente os métodos de extração de termos selecionam candidatos a termos com base em algum conhecimento linguístico. Depois disso, eles aplicam a esses candidatos medidas ou combinação de medidas (e/ou heurísticas) para gerar um ranking com tais candidatos. Quanto mais ao topo desse ranking os candidatos estão, maior a chance de que eles sejam termos. A escolha do liminar a ser considerado nesse ranking é feita, em geral de forma manual ou semiautomática por especialistas do domínio e/ou terminólogos. Automatizar a forma de escolha dos candidatos a termos é a primeira motivação da extração de termos realizada nesta pesquisa. A segunda motivação desta pesquisa é minimizar o elevado número de candidatos a termos presente na extração de termos. Esse alto número, causado pela grande quantidade de palavras contidas em um corpus, pode aumentar a complexidade de tempo e os recursos computacionais utilizados para se extrair os termos. A terceira motivação considerada nesta pesquisa é melhorar o estado da arte da extração automática de termos simples da língua portuguesa do Brasil, uma vez que os resultados dessa extração (medida F = 16%) ainda são inferiores se comparados com a extração de termos em línguas como a inglesa (medida F = 92%) e a espanhola (medida F = 68%). Considerando essas motivações, nesta tese, foi proposto o método MATE-ML (Automatic Term Extraction based on Machine Learning) que visa extrair automaticamente termos utilizando técnicas da área de aprendizado de máquina. No método MATE-ML, é sugerido o uso de filtros para reduzir o elevado número de candidatos a termos durante a extração de termos sem prejudicar a representação do domínio em questão. Com isso, acredita-se que os extratores de termos podem gerar listas menores de candidatos extraídos, demandando, assim , menos tempo dos especialistas para avaliar esses candidatos. Ainda, o método MATE-ML foi instanciado em duas abordagens: (i) ILATE (Inductive Learning for Automatic Term Extraction), que utiliza a classificação supervisionada indutiva para rotular os candidatos a termos em termos e não termos, e (ii) TLATE (Transductive Learning for Automatic Term Extraction), que faz uso da classificação semissupervisionada transdutiva para propagar os rótulos dos candidatos rotulados para os não rotulados. A aplicação do aprendizado transdutivo na extração de termos e a aplicação ao mesmo tempo de um conjunto rico de características de candidatos pertencentes a diferentes níveis de conhecimento - linguístico, estatístico e híbrido também são consideradas contribuições desta tese. Nesta tese, são discutidas as vantagens e limitações dessas duas abordagens propostas, ILATE e TLATE. Ressalta-se que o uso dessas abordagens alcança geralmente resultados mais altos de precisão (os melhores casos alcançam mais de 81%), altos resultados de cobertura (os melhores casos atingem mai de 87%) e bons valores de medida F (máximo de 41%) em relação aos métodos e medidas comparados nas avaliações experimentais realizadas considerando três corpora de diferentes domínios na língua portuguesa do Brasil / Text Mining (TM) aims at discovering innovating knowledge in unstructured texts. The extraction of terms that represent that texts of a specific domain is one of the most important steps of TM, since the results of the overall TM process will mostly depend on the quality of these terms. In this thesis, we consider terms as lexical units used to assign concepts in thematically restricted scenarios. The term extraction task may use approaches such as: statistical, linguistic, or hybrid. Typically, statistical methods are the most common for Text Mining. These methods are computationally less expensive than the linguistic ones, however their results tend to be less human-interpretable. Both methods are not often capable of identifying differences between terms and non-terms. For example, statistical methods may not identify terms that have the same frequency of non-terms and linguistic methods may not distinguish between terms that follow the same patterns of non-terms. One solution to this problem is to use hybrid methods, combining the strategies of linguistic and ststistical methods, in order to attenuate their inherent problems. Considering the features of the term extraction methods, in this thesis, we investigated statistical melhods, ways of obtaining linguistic knowledge, and hybrid methods for extracting simple terms (only one radical, with or without the affixes) for the Braziian Portuguese language. We evaluated, in term extraction, four new hybrid measures (tvq, tv, and comGram) originally proposed for other tasks; and two of them (tvq and tv) were considered relevant for this task. e proposed four new hybrid measures(n_subs., n_adj., n_po, and n_verb); and there of them (n_subst., n_adj., and n_po) were helpful in the term extraction task. Typically, the extraction methods select term candidates based on some linguistic knowledge. After this process, they apply measures or combination of measures (and/or heuristics) to these candidates in order to generate a ranking. The higher the candidates are in the ranking, the better the chances of being terms. To decide up to which position must be considered in this ranking normally, a domain expert and/or terminologist manually or semiautomatically analyse the ranking. The first motivation of this thesis is to automate how to choose the candidates during the term extraction process. The second motivation of this research is to minimize the high number of candidates present in the term extraction. The high number of candidate, caused by the large amount of words in a corpus, could increase the time complexity and computational resources for extracting terms. The third motivation considered in this research is to improve the state of the art of the automatic simple term extraction for Brazilian Portuguese since the results of this extraction (F-measure = 16%) are still low when compared to other languages like English (F-measure = 92%) and Spanish (F-measure =68%). Given these motivations, we proposed the MATE-ML method (Automatic Term Extraction Based on Machine Learning), which aims to automatically extract simple terms using the machine learning techniques. MATE-ML method suggests the use of filters to reduce the high number of term candidates during the term extraction task without harming the domain representation. Thus, we believe the extractors may generate smaller candidate lists, requiring less time to evaluate these candidates. The MATE-ML method was instantiated in two approaches.: (i) ILATE (Inductive Learning for Automatic Term Extraction),. which uses the supervised inductive classification to label term candidates, and (ii) TLATE (Trnasductive Learning for Automatic Term Extraction), which uses transductive semi-supervised classification to propagate the classes from labeled candidates to unlabeled candidates. Using transductive learning in term extraction and using, at the same time, a rich set of candidate features belonging to different levels of knowledge (linguistic,statistical, and hybrid) are also considered as contributions. In this thesis, we discuss the advantages and limitations of these two proposed approaches. We emphasize taht the use of these approaches usually with higher precision (the best case is above of 81%), high coverage results (the best case is above of 87%), and good F-measure value (maximum of 41%) considering three corpora of different domains in the Brazilian Portuguese language
|
122 |
Simulação de condutividade alternada em sistemas poliméricos e aplicações em poliméricos condutivos / Simulation of alternated conductivity, in polymeric systems and applications in conductive polymersNagashima, Haroldo Naoyuki 20 March 2000 (has links)
Os processos envolvidos em condução eletrônica de polímeros condutores são muito complicados devido à intricada morfologia estrutural de tais materiais. Realizamos medidas de condutividade alternada em filmes de polianilina em uma grande faixa de freqüência, variando o grau de dopagem dos filmes e temperatura. Ao mesmo tempo, desenvolvemos um modelo estatístico de rede de resistores para descrever a estrutura polimérica e para simular as componentes real e imaginária de sua resistividade alternada. Leva-se em conta a polidispersividade do material, assim como os mecanismos de transportes de carga intracadeia e intercadeia. Pela aplicação de uma técnica de matriz de transferência, o modelo reproduz medidas de resistividade alternada realizadas em filmes de polianilina em diferentes graus de dopagem e em diferentes temperaturas. Nossos resultados indicam que os mecanismos intercadeias governam o comportamento da resistividade em regiões de baixa freqüência enquanto que, para altas freqüências, mecanismos intracadeia são dominantes. Essa simulação foi desenvolvida para redes bi e tridimensional. Aplicamos, também, esse método para estudar sistemas isoenergéticos de estrutura desordenada (poliacetileno estirado), sistemas isoenergéticos de estrutura desordenada (poliacetileno não-estirado) e sistemas não-isoenergéticos de estrutura desordenada (polianilina). Finalmente, uma comparação entre esses três materiais, permitiu-se discutir, em detalhes, a distribuição de barreiras de energia potencial e a diferença dos níveis de energia que controlam o mecanismo de salto dos portadores eletrônicos. / The processes involved in electronic conduction of conducting polymers are very complicated due to the intricate morphological structure of such materials. We carried out alternating conductivity measurements in polyaniline films in a large frequency range, varying the doping degree of the films and temperature. At the same time, we developed a statistical model of resistor networks to describe a polymer structure and to simulate the real and imaginary components of their ac resistivities. This model takes into account the polydispersiveness of the material as well as intrachain and interchain charge transport mechanisms. By the application of a transfer-matrix technique, it reproduces ac resistivity measurements carried out with polyaniline films in different doping degrees and temperatures. Our results indicate the interchain mechanisms govern the resistivity behavior in the low frequency region while, for higher frequencies, intrachain mechanisms are dominated. These simulations were developed in bi and tridimensional lattice. We also applied this method to study ordered structure in isoenergetic systems (stretched polyacetylene), disordered structure in isoenergetic systems (normal polyacetylene), and disordered structure in non-isoenergetic systems (polyaniline). Finally, a comparison between these three materials, allowed us to discuss in detail the energy barriers distribution and the difference in energy levels, which control the hopping mechanisms of the electronic carriers.
|
123 |
Inteligência estatística na tomada de decisão médica: um estudo de caso em pacientes traumatizados / Statistical intelligence in medical decision making: a case study in traumatized patientsMarcelo Garcia 22 November 2018 (has links)
O principal objetivo do estudo foi utilizar informações de ocorrência do Traumatismo Crânio Encefálico (TCE) que possam inferir/gerar descobertas associadas ao risco de gravidade do paciente, bem como auxiliar na tomada de decisão médica ao definir o melhor prognóstico, indicando quais as possíveis medidas que podem ser escolhidas para a gravidade na lesão sofrida pela vítima. Inicialmente, foram analisadas as estatísticas descritivas dos dados dos pacientes de TCE de um hospital do interior de São Paulo. Participaram desse estudo 50 pacientes. Os resultados mostraram que a maior frequência do trauma é por acidentes de trânsito (62%), seguidos de acidentes por queda (24%). Traumas em pacientes do sexo masculino (88%) são muito mais frequentes do que em pacientes do sexo feminino. Para modelagem, transformou-se a variável resposta \"Abbreviated Injury Scale (AIS)\" em dicotômica, considerando 0 (zero) aos pacientes fora de risco e 1 (um) aos que apresentaram algum tipo de risco. Em seguida, técnicas de aprendizado estatístico foram utilizadas de modo a comparar o desempenho dos classificadores Regressão Logística sendo um caso do Generalized Linear Model (GLM), Random Forest (RF), Support Vector Machine (SVM) e redes probabilísticas Naïve Bayes (NB). O modelo com melhor desempenho (RF) combinou os índices Accuracy (ACC) , Area Under ROC Curve (AUC) , Sensitivity (SEN), Specificity (SPE) e Matthews Correlation Coefficient (MCC), que apresentaram os resultados mais favoráveis no quesito de apoio no auxílio da tomada de decisão médica, possibilitando escolher o estudo clínico mais adequado das vítimas traumatizadas ao considerar o risco de vida do indivíduo. Conforme o modelo selecionado foi possível gerar um ranking para estimar a probabilidade de risco de vida do paciente. Em seguida foi realizado uma comparação de desempenho entre o modelo RF (novo classificador) e os índices Revisited Trauma Score (RTS), Injury Severity Score (ISS) , Índice de Barthel (IB) referente à classificação de risco dos pacientes. / The main objective of this study was to consider the information related to the occurrence of traumatic brain injury (TBI) that can infer new results associated with the patients risk of severity as well as assisting in the medical decision in order to find the best prognosis; this can lead to indicate possible measures that can be chosen for severity in the injury suffered by the victim. Initially, we have presented descriptive statistics from the patients with TBI from a hospital located in the heartland of São Paulo. Fifty patients were recruited for this study. Descriptive analyzes showed that the highest frequency of trauma is due to traffic accidents (62 %) followed by crashes per accident (24 %). The causes related to trauma occur much more often in male patients (88 %) than in female patients. To order model, the response variable Abbreviated Injury Scale (AIS) was considered as dichotomous, where 0 (zero) was to out-of-risk patients and 1 (one) to those who presented some type of risk. Further, statistical learning techniques were used in order to compare the performance of the Logistic Regression as a Generalized Linear Model (GLM), Random Forest (RF), Support Vector Machine (SVM) and Naive Bayes (NB) model. The best performing (RF) model combined the Accuracy (ACC) , Area Under ROC Curve (AUC) , Sensitivity (SEN), Specificity (SPE) e Matthews Correlation Coefficient (MCC), which presented the most favorable results in terms of support in medical decision, making it possible to choose the most appropriate clinical study of traumatized victims based on the individual life risk. According to the selected model it was possible to generate a rank to estimate the probability of life risk of the patient. Then a performance comparison was performed between the RF model (proposed classifier) and the Revisited Trauma Score (RTS), Injury Severity Score (ISS), Barthel index (IB) referring to the risk classification of patients.
|
124 |
Concepções de professores da educação básica sobre variabilidade estatísticaNovaes, Diva Valério 10 August 2011 (has links)
Made available in DSpace on 2016-04-27T16:57:08Z (GMT). No. of bitstreams: 1
Diva Valerio Novaes.pdf: 2823527 bytes, checksum: 17ea15131520d732f9fb8c60ce4d5769 (MD5)
Previous issue date: 2011-08-10 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This study sought to investigate conceptions about objects of Descriptive Statistics related to teaching or to specific content that 1st- to 12th-grade Brazilian teachers employ when organizing and managing teaching sequences focused on this theme. To this end, the procedures adopted in the classroom by teachers attending a continued education program were observed. The investigation was carried out in response to the finding, by previous studies conducted in this field, of barriers to the learning of notions of Statistics. Selection of the objects of study was based on identification of their mutual relationships in analogy to those established within a stable ecosystem herein assumed in analogy to the biological notion of the food chain. The research was part of the project entitled Teaching and Learning Process Involving Probabilistic and Statistical Thinking (PEA-ESTAT), funded by the Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP). Based on the case study method, the investigation sought to address the following questions: What ideas can be identified when 1st- to 12th-grade teachers apply their statistical knowledge of variation to solve problems and prepare their lessons on this topic? How can this knowledge be modeled with the aid of the Theory of Conceptions so as to establish parameters that contribute to overcoming or minimizing barriers and difficulties associated to the learning of statistical content, as identified in studies in this area? The ck¢ model was adopted to describe and explain the conceptions expressed by the teachers participating in this study. This model provided a theoretical framework that allowed plausible explanations to be inferred for cognitive procedures that generate many of the problems identified in other studies, with regard to eliciting the knowledge required to conduct an exploratory data analysis that leads to correct comprehension of the concept of variability. Sixteen consistently interconnected teaching- and statistics-related conceptions were identified, which provided answers to the questions posed in this investigation / Esta pesquisa teve por objetivo analisar concepções sobre objetos da Estatística Descritiva, tanto didáticas quanto específicas de conteúdo, mobilizadas por professores da Educação Básica quando organizam e fazem a gestão de sequências didáticas nesse tema e, para tanto, observamos os procedimentos adotados em sala de aula por professores em formação continuada. A pesquisa teve origem na constatação da existência de entraves à aprendizagem das noções estatísticas identificados em outros estudos na área. A escolha dos objetos de estudo foi feita a partir da identificação das relações estabelecidas entre eles em analogia com as que se estabelecem em um ecossistema estável, por sua vez assumido em analogia à noção biológica de cadeia alimentar. A pesquisa está inserida no projeto Processo de Ensino e Aprendizagem Envolvendo Pensamento Estatístico e Probabilístico (PEA-ESTAT), financiado pela Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP). A metodologia utilizada foi o estudo de caso, com o qual buscamos responder às seguintes questões: Quais concepções podem ser identificadas quando professores da Educação Básica mobilizam seus conhecimentos estatísticos sobre variação ao resolverem problemas e prepararem suas aulas sobre esse tema? Como esses conhecimentos podem ser modelados com auxílio da Teoria das Concepções, de modo a se estabelecerem parâmetros que contribuam para a superação ou minimização de entraves e dificuldades de aprendizagem desses conteúdos estatísticos, já identificados em pesquisas na área? Utilizamos o modelo ck¢ para descrever e explicar as concepções manifestadas pelos professores que foram sujeitos nesta pesquisa. Tal modelo proporcionou um quadro teórico que permitiu inferir, a partir dos dados coletados, explicações plausíveis para procedimentos cognitivos que geram diversas das dificuldades já identificadas em outros estudos, no que se refere a mobilizar os conhecimentos necessários para realizar uma análise exploratória de dados que conduza à correta apreensão do conceito de variabilidade. Identificaram-se 16 concepções didáticas e estatísticas que sempre funcionam interrelacionadas, o que nos permitiu responder às questões propostas nesta pesquisa
|
125 |
O desenvolvimento do letramento estatístico por meio de projetos: um estudo com alunos do Ensino MédioGiordano, Cassio Cristiano 07 June 2016 (has links)
Submitted by Filipe dos Santos (fsantos@pucsp.br) on 2016-10-04T17:04:18Z
No. of bitstreams: 1
Cassio Cristiano Giordano.pdf: 4551902 bytes, checksum: 697d60cac97ad320f4c82afae50f1c6b (MD5) / Made available in DSpace on 2016-10-04T17:04:18Z (GMT). No. of bitstreams: 1
Cassio Cristiano Giordano.pdf: 4551902 bytes, checksum: 697d60cac97ad320f4c82afae50f1c6b (MD5)
Previous issue date: 2016-06-07 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Statistical literacy is critical for academic education, for professional life, and, above all, for the exercise of empowerment in our society, given the ease of access to data streaming from diverse media. Reading and interpreting these data, as well as expressing ideas informed by them, have become essential for every individual. However, despite the principles conveyed in Brazilian national and state curriculum guidelines, the teaching and learning of statistics have not received their deserved space in São Paulo schools, either in the Caderno do Aluno (a printed material provided by the São Paulo State Department of Education) or in the majority of textbooks marketed for use in high schools. Project-based teaching and learning of statistics constitute opportunities to promote statistical literacy. Moreover, this approach has the potential to change, in a notable manner, the relationship among teacher, student, and knowledge, promoting greater autonomy for students to develop their own research. To analyze the development of literacy and changes in the didactic contract under a project-based approach, a case study was conducted. The subjects were 43 students aged 17-20 years from two classes of the third (i.e., final) year of high school, who were distributed into nine groups of four or five members. During two months they participated in the entire process of developing a statistical investigation, from selecting themes and formulating research questions to the dissemination of results. The results revealed that this approach encourages the development of statistical literacy, creating conditions for a breach of the didactic contract – an important step in the development of students’ autonomy, preparing them for future challenges in their lives, the university, the labor market, and any other situation / O letramento estatístico é fundamental para a formação acadêmica, para a vida profissional e, sobretudo, para o exercício da cidadania em nossa sociedade, dada a facilidade de acesso a dados estatísticos por meio de diversos veículos de informação. Ler e interpretar tais dados, bem como expressar ideias neles embasadas, tornaram-se essenciais para cada um de nós. No entanto, apesar das orientações curriculares nacionais e estaduais, o ensino e a aprendizagem da Estatística não têm recebido nas escolas da rede estadual de São Paulo o merecido espaço, tanto no Caderno do Aluno (material institucional oferecido pela Secretaria de Educação), quanto pela maioria dos livros didáticos disponíveis para o Ensino Médio. Vemos no ensino e na aprendizagem da Estatística por meio de projetos uma oportunidade para o desenvolvimento do letramento estatístico. Além disso, a abordagem da Estatística por meio de projetos muda, de forma notável, as relações entre professor, aluno e saber, promovendo maior autonomia por parte dos alunos no desenvolvimento de suas pesquisas. Para analisar esses dois fenômenos – o desenvolvimento do letramento e as mudanças no contrato didático – em uma abordagem por meio de projetos, realizamos um estudo de caso. Nossos sujeitos de pesquisa foram 43 alunos com idades de 17 a 20 anos oriundos de duas turmas de terceiro ano do Ensino Médio, divididos em nove grupos de quatro ou cinco integrantes. Eles participaram, durante um bimestre letivo, de todo o processo de desenvolvimento de uma pesquisa estatística, desde a escolha do tema e elaboração da questão de pesquisa até a análise e divulgação dos resultados. Os resultados revelaram que essa abordagem favorece o desenvolvimento do letramento estatístico, bem como gera condições para uma quebra de contrato didático, importante para o desenvolvimento da autonomia dos alunos, preparando-os para os desafios futuros de suas vidas, na universidade, no mercado de trabalho ou em qualquer outra situação
|
126 |
Dificuldades de implementação de programas Seis Sigma: estudos de casos em empresas com diferentes níveis de maturidade / Six sigma programs: dificulties in implementation: studies of cases in companies with different levels of maturityCabrera Junior, Alvaro 31 March 2006 (has links)
A melhoria da qualidade em função do aumento da competitividade nas empresas vem se tornado uma realidade evidente para aquelas que desejam continuar atuantes no mercado. Esta melhoria deve ter como objetivo a satisfação das necessidades de seus clientes e o atendimento das expectativas de lucro de seus acionistas. Para isto abordagens como o Seis Sigma, que trazem como proposta a melhoria da qualidade visando o atendimento destes objetivos, encontram nestes ambientes as condições propícias para sua utilização. No entanto, o que se observa na literatura é uma supervalorização desta abordagem de melhoria da qualidade como forma de eliminação das barreiras que impedem o aumento da competitividade. Este fato pode ser evidenciado com base na propaganda de seu sucesso de aplicação em empresas de grande porte e com alto nível de maturidade destas, que possuem condições de sanar seus problemas através de qualquer metodologia comprovada, mas que não produzem o mesmo efeito em empresas com menor compreensão de seus processos, que constituem a grande maioria que busca em uma abordagem como o Seis Sigma a solução para seus problemas seja de processo, seja organizacionais. Este trabalho tem como proposta a pesquisa e análise das dificuldades de implementação de programas Seis Sigma, utilizados para melhoria de competitividade em empresas com diferentes níveis de maturidade, considerando os fatores críticos de sucesso que condicionam este processo, apontados na literatura sobre o tema. Inicialmente uma revisão bibliográfica é feita para apresentar um referencial teórico de conceitos sobre Seis Sigma; casos de implementação bem sucedidos; levantamento das dificuldades associadas aos conceitos referenciados; e levantamento dos fatores críticos de sucesso para implementação de Programas Seis Sigma em uma organização; e a elaboração com base nesta revisão dos instrumentos de coleta de dados. Para execução deste trabalho realizou-se um estudo de casos múltiplos com objetivos descritivos visando levantar as dificuldades de implementação do Seis Sigma em empresas de grande porte e com diferentes níveis de maturidade que já utilizem este programa / The quality improvement, related to the companies competitiveness increasing, has become a strong reality to those that want to continue acting in the market.This improvement shall have the customer satisfaction needs and the shareholders expected profit achievement objective.So, strategies such as six sigma approach, that proposes a quality improvement by meeting these objectives, find on these scenario, proper condition to be used.However, what is observed on the literature is a super valorization of this quality improvement approach as a way to eliminate barriers that obstruct the competitiveness increasing. This fact can be demonstrated, according to the application success promotion, in lead companies and with high level of maturity, that have conditions to solve its problems through any proper methodology, but does not produces the same effect in companies which does not understand its process, and that represents the huge amount that is searching for Six Sigma approach to solve its process or organizational problems.This work proposes to develop and analyze the Six sigma program implementation problems, used to improve the companies competitiveness with different maturity levels, considering the success critical factors that limit this process, according to the actual literature. At beginning a biographic review was conducted to present the teorical reference related to Six Sigma concepts; well succed implementation cases; list of problems associated to the refer concepts; the list of critical factors for Six Sigma implementation in an organization; and the preparation of data collection based on these review.The execution of this work was done by multiple cases with defined objective study in order to list the Six Sigma implementation problems in big companies and several levels of maturity that already uses this program
|
127 |
Ressonância magnética funcional com filtragem pela difusão anisotrópica robusta. / Robust anisotropic diffusion filtering of functional magnetic resonance imaging.Giacomantone, Javier Oscar 07 October 2005 (has links)
Esta dissertação apresenta os principais métodos estatísticos para analisar as séries temporais de fMRI com o objetivo de detectar regiões ativadas e caracterizar o erro envolvido nessa decisão. Na análise de imagens funcionais, devido à baixa razão sinal-ruído, torna-se necessário o uso de técnicas elaboradas de processamento. O resultado da aplicação de técnicas estatísticas sobre as séries temporais obtidas da imagem de fMRI, é um mapa estatístico paramétrico, (Statistical Parametric Map), (SPM), uma imagem 3-D que permite determinar o estado do voxel, ativado ou não ativado, e a significância estatística do resultado. Propomos um novo método baseado na Difusão Anisotrópica Robusta, (Robust Anisotropic Diffusion), (RAD), que explora uma característica fundamental da imagem funcional, a correlação espacial das regiões ativadas do cérebro humano. O método proposto permite obter mapas estatísticos que melhoram a determinação das áreas ativadas a partir de dados fMRI ruidosos. Os novos mapas estatísticos paramétricos, baseados na correlação espacial da imagem fMRI, reduzem os erros do processo de classificação dos voxels, melhorando assim o mapeamento das regiões ativadas no cérebro. Aplicamos a técnica proposta em dados gerados artificialmente, simulando ruído e sinal, e avaliamos o novo método proposto e um método clássico de processamento de fMRI. Apresentamos resultados comparativos entre um método clássico, o método de correlação e o novo método. Calculamos os erros envolvidos e apresentamos a curvas características de operação de um receptor, (Receiver Operating Characteristics), (ROC), para ambos métodos, comparando os parâmetros mais importantes. Também avaliamos o novo método em dados reais de fMRI de um experimento em blocos com estímulo visual. / This dissertation presents the main statistical methods to analyse fMRI temporal series to detect activated regions and to characterise the error involved in this decision. Due to low signal to noise ratio, elaborate processing techniques are necessary to analyse functional images. Statistical techniques are usually applied on the temporal series obtained from fMRI, resulting in a Statistical Parametric Map (SPM), a 3-D image that makes it possible to determine the state of a voxel, as activated or not activated, and the statistical significance of the result. We proposed a new, simple an elegant method based on Robust Anisotropic Diffusion (RAD) to exploit the spatial correlation of activated regions of the human brain. The new method, named Robust Anisotropic Diffusion of Statistical Parametric Maps (RADSPM), allows one to obtain statistical maps that improve the determination of activated areas from noisy fMRI data. The new parametric statistical maps, based on the voxel spatial correlation of the fMRI image, reduce the classification error thus improving the significance of the results. We have tested the new technique in both simulated and real fMRI, obtaining sharp and noiseless SPMs with increased statistical significance. We compare results of the new RADSPM method with those of a classic method, the conventional correlation method. We calculate the involved errors and we present Receiver Operating Characteristics (ROC) curves for both methods, comparing the most important parameters for simulated fMRI data. We also evaluate the new method on real data of a visual fMRI experiment.
|
128 |
Modelo estatístico para aplicações no planejamento de sistemas móveis celulares em ambiente indoor multifontesLIMA, Rosely dos Anjos 15 December 2005 (has links)
Submitted by Irvana Coutinho (irvana@ufpa.br) on 2012-03-06T17:11:08Z
No. of bitstreams: 1
ROSELY_LIMAModeloEstatisticoAplicacoes.pdf: 3707232 bytes, checksum: a9d42048cd55addaf789747c94134208 (MD5) / Approved for entry into archive by Irvana Coutinho(irvana@ufpa.br) on 2012-03-06T17:12:48Z (GMT) No. of bitstreams: 1
ROSELY_LIMAModeloEstatisticoAplicacoes.pdf: 3707232 bytes, checksum: a9d42048cd55addaf789747c94134208 (MD5) / Made available in DSpace on 2012-03-06T17:12:48Z (GMT). No. of bitstreams: 1
ROSELY_LIMAModeloEstatisticoAplicacoes.pdf: 3707232 bytes, checksum: a9d42048cd55addaf789747c94134208 (MD5)
Previous issue date: 2005 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O projeto de sistemas de comunicações móveis requer o conhecimento do ambiente em que será implementado. Para tanto, busca-se a exatidão na predição de propagação do sinal através do uso de modelos de predição. O presente trabalho propõe um modelo empírico para a estimativa da intensidade de sinal recebida em ambientes indoor, e que apresentam mais de uma fonte transmissora, utilizando Sistema de Antenas Distribuídas (DAS). O método apresenta uma generalização para o caso de múltiplas fontes, também chamado multifontes, e como caso particular com apenas uma fonte. A modelagem é feita através do uso de radiais partindo de cada transmissor, com o intuito de considerar a variabilidade do sinal em ambientes indoor. Estas várias perturbações no sinal, que causam desvanecimento rápido são caracterizadas através das distribuições estatísticas de desvanecimento. As mais utilizadas como a de Rayleigh, Rice e Nakagami são apresentadas para caracterização do canal, além dessas são calculadas as distribuições recentemente desenvolvidas, de Kappa-mi e Eta-mi. Para a validação do modelo realizaram-se campanhas de medições em um shopping center, que possui um DAS, com o teste em dois ambientes distintos, um supermercado e uma praça de alimentação. As simulações são realizadas no software MATLAB® e o desempenho dos resultados avaliados através do cálculo dos erros absoluto, desvio padrão e erro rms. / The project of systems of mobile communications requires the knowledge of the environment where it will be implemented. For so much, the accuracy is looked for in the prediction of propagation of the signal through the use of prediction models. The present work proposes an empirical model for estimating of the signal strength received in indoor environments that presents more than indoor transmitter source, using Distributed Antennas Systems (DAS). The method presents a generalization for the case of multiple sources, also called multisources and as particular case to only one source. The modeling is made through the use of radial go away of each transmitter, with aim to consider the variability of the signal in indoor environments. These some disturbances in the signal, that they cause fast fading; they are characterized through the statistical distributions of fading. The most used as of Rayleigh, Rice and Nakagami are presented for characterization of the channel; besides the distributions recently developed are calculated, so Kappa-mi and Eta-mi. For the validation of the model, campaigns of measurements in shopping center were made, where possesses one DAS, with the test in two distinct environments, a supermarket and a feeding square. The simulations are carried out through using the software MATLAB® and the performance of the results evaluated through the calculation of the absolute error, standard deviation and rms error.
|
129 |
Qualidade operacional da fenação: análise do processo de produção. / Operational quality of hay harvesting: analysis of the process.Rodrigo Giacomini Bonato 20 September 2004 (has links)
O Brasil possui atualmente o maior rebanho comercial bovino do mundo com aproximadamente 185 milhões de cabeças, configurando-se em uma atividade de significativa participação na formação do PIB agropecuário nacional. Entretanto, uma das dificuldades enfrentadas é a sazonalidade das forrageiras, pois a produção da pastagem concentra-se na época quente e chuvosa do ano. A fenação é uma das alternativas na conservação de forragens e sua qualidade depende, entre outros fatores, do processo de colheita, onde eficiência e agilidade são proporcionadas pela mecanização. O momento econômico atual obriga os produtores rurais a adequarem seus sistemas produtivos, buscando novas tecnologias e soluções gerenciais que os fortaleçam na administração de suas propriedades. Deste modo, defeitos ou falhas em suas operações agrícolas devem ser detectadas e corrigidas, de modo a tornar os processos mais eficientes e, conseqüentemente, menos onerosos. Esta busca por menores custos e obtenção de melhorias ao sistema produtivo, pode ser alcançada pela implantação da gestão pela qualidade à administração empresarial. Os conceitos de qualidade foram desenvolvidos para o setor industrial e estão plenamente presentes à rotina das empresas e hoje, passaram a atuar também na agricultura, pois, uma vez que a cultura já tenha sido implantada, qualquer operação realizada fora dos padrões planejados traz inúmeras perdas. Devido ao alto custo do sistema produtivo agrícola, as operações mecanizadas representam um ponto estratégico para o desenvolvimento de técnicas de otimização e redução dos mesmos. Deste modo, este estudo teve por objetivo identificar e avaliar as operações de maior impacto nos custos e na qualidade para obtenção do feno enfardado. Os dados obtidos em uma propriedade produtora de feno, foram analisados utilizando-se o Controle Estatístico de Processos (CEP) e as operações de sega e enfardamento foram consideradas críticas sob o ponto de vista econômico e qualitativo em relação ao produto final (feno). Para a operação de sega, os resultados indicaram que existem causas especiais atuando no processo, bem como tendência de execução da operação acima dos limites estabelecidos, devido ao receio de contaminação da massa ceifada. Na operação de enfardamento constatou-se um maior potencial de melhoria e para tanto, exigiu que um dispositivo eletrônico de contagem fosse acoplado ao equipamento, melhorando a qualidade do processo produtivo, principalmente com relação à conformação dos fardos: manutenção do comprimento e geometria. Enfim, a implantação de sistemas de controle de qualidade em operações agrícolas mecanizadas para a cultura de feno é viável e, com o CEP, foi possível caracterizar tecnicamente a qualidade de execução das operações e gerar melhorias na qualidade final do produto. / In the very beginning of the 21st century Brazil has nearly 185 million cattle, the biggest livestock of the world, which agribusiness contributes significantly to the GNP of the country. Most of those animals feed in pasture land and one of the main constraints is the seasonality of the herbage, that is, in the winter time the drought restrict the availability of food. Hay is one of the alternatives to counteract that problem and its quality depends on the process of harvesting, among others, in which the agility and efficiency is given by the mechanization. Nowadays rural activity requires cost-effective administration like any other enterprise, so that the producers have to constantly pursue new technologies and managerial processes. Faults and defects in the operations must be detected in time and properly corrected in order to get efficiency in the process, that is, a minor cost. This search for a lower cost can be reached applying the quality management in the business administration. The concepts of quality were developed to the industrial sector and, fully incorporated to the routine administration of the enterprises of that sector, now come to be applied to the agribusiness alike. Due to the high cost of the agricultural production process, a strategic move is the development of techniques to optimize and reduce the mechanized operations. This study aimed at the identification and evaluation of the operations which most impact the cost and quality of the hay harvesting and packing. Data obtained in a hay production farm were analyzed by means of the Statistical Quality Control (SQC) and both the tillage and packing were considered the key points under the economical and quality view in relation to the final product, the fodder. Concerning the tillage, the results indicated the existence of special causes acting in the process, as well as a tendency to operate the machines above the required limits due to the fear of adulterations in the reaped mass. As it was detected that in the packing process prevail the biggest potential to improve, an electronic device of counting was set up in the equipment. This recourse improved somewhat the productive process, mainly in relation to the format of the package: proper maintenance of the length and geometry. In conclusion, the introduction of quality control systems in the mechanized processes of hay harvesting is feasible and, the SQC make it possible to technically characterize the quality of the operations, which leads to a better fodder.
|
130 |
Aplicação do Analytical Quality Assurance Cycle no desenvolvimento de método para análise de compostos voláteis e semivoláteis pelo acoplamento das técnicas Refrigerated Sorptive Extraction e Gas Chromatography (RSE/GC) / Application of the Analytical Quality Assurance Cycle in the development of a method of analysis of volatile and semi-volatile contaminants by coupling techniques Refrigerated Sorptive Extraction and Gas Chromatography (RSE/GC)Ricardo dos Santos Camargo 15 December 2016 (has links)
Este trabalho visou a aplicação de uma ferramenta da qualidade chamada Analytical Quality Assurance Cycle, que engloba num ciclo: a Validação de Métodos, já bem conhecida do meio científico; o Cálculo de Incerteza Analítica e Controle de Qualidade Intralaboratorial, estes ainda pouco aplicados no meio acadêmico, mas que unidos se mostraram uma alternativa útil e poderosa para a garantia da qualidade de resultados de um laboratório de pesquisa e desenvolvimento universitário. O projeto de pesquisa que recebeu a aplicação da ferramenta buscava uma otimização de metodologia de extração de contaminantes, denominada Refrigerated Sorptive Extraction que é baseada em sorção por barra de polidimetilsiloxano, e posterior determinação do contaminantes voláteis e semivoláteis por um cromatógrafo a gás com detector de ionização em chama (GC/FID). Uma das otimizações comtemplou a miniaturização do protótipo, o que tornou possível utilizar a dessorção térmica diretamente no injetor do cromatógrafo, o que permitiu ao equipamento determinar concentrações cada vez mais baixas, como foi o caso dos compostos octilfenol e fluoranteno, alcançando a concentração de 0,5 µg L-1. A aplicação da metodologia foi realizada em amostras ambientais reais de água superficial, coletadas segundo os procedimentos descritos no Guia nacional de coleta e preservação de amostras publicado pela Agencia Nacional de Águas (ANA) e Companhia Ambiental do Estado de São Paulo (CETESB). Como um adendo da etapa de Cálculo de Incerteza do ciclo, foram descritos os critérios para o Cálculo de Incerteza da Amostragem, de muita importância para a garantia da qualidade do resultado final. Foram encontrados alguns obstáculos para a aplicação do Analytical Quality Assurance Cycle, que exige a utilização de padrões analíticos com incerteza declarada (produzidos de acordo com a norma ISO Guia 34) e a calibração de equipamentos que interferem na qualidade dos resultados. Nesse trabalho não foi possível utilizar os padrões ISO Guia 34, mas através de um programa de verificação da balança analítica com peso-padrão calibrado em laboratório da Rede Brasileira de Calibração do Instituto Nacional de Metrologia e Qualidade Industrial (RBC/INMETRO), foi possível obter a Rastreabilidade Metrológica para as medições realizadas nas amostras coletadas. Apesar de todo o cuidado com a garantia da qualidade com as ferramentas aplicadas, a Rastreabilidade Metrológica por si só não consegue garantir a qualidade do resultado da medição integralmente. Portanto foi detectada a necessidade de implantar um Sistema de Gestão da Qualidade adaptado ao laboratório para prover a Rastreabilidade Documental que faltava. Foram utilizadas as normas NBR ISO/IEC 17025 e Boas Práticas de Laboratório para fornecer uma base para o sistema implantado. Enfim, todo esse trabalho foi dedicado a aproximar a Metrologia, a Garantia e o Controle da Qualidade aos laboratórios de pesquisa universitários, pois é imprescindível que esses conceitos sejam aplicados à academia para garantir a reprodutibilidade dos resultados gerados. / This thesis presents an application of a quality tool called the Analytical Quality Assurance Cycle, which involves in a cycle: the Validation of Methods, already well known in the scientific environment, the Estimation of Analytical Uncertainty and Intralaboratorial Quality Control. These latter are few applied in the academic medium, but that united tools proved to be an useful and powerful alternative for a guarantee of the quality of results of research and development laboratories at universities. The research project that received the application of this tool sought an optimization of contamination extraction methodology, denominated Refrigerated Sorptive Extraction that is based on sorption by a polydimethylsiloxane bar, and subsequent determination of volatile and semivolatile contaminants by a gas chromatograph with flame ionization detector (GC/FID). One of the optimizations contemplated the miniaturization of the prototype, which enabled the thermal desorption inside the injector of the chromatograph, which allowed the equipment to reach concentrations increasingly low, as was the case of the compounds octylphenol and fluoranthene, achieving a concentration of 0,5 µg L-1. The application of the methodology was carried out in samples of surface water collected according to the National Collection and Preservation Guide published by the Brazilian National Water Agency (ANA) and São Paulo State Environmental Company (CETESB). As an addendum of the Estimation of Uncertainty step in the cycle, was discussed the methods of Estimation of Uncertainty of the Sampling, that it is very important for a guarantee of the quality of the final result. Some challenges were found in the application of the Analytical Quality Assurance Cycle, which requires the use of analytical standards with declared uncertainty (made according the ISO Guide 34) and a calibration of equipment that interferes in the quality of the results. In this project, it is not used analytical standards with declared uncertainty, but the introduction of a program of verification of the analytical balance with standard weight calibrated in a laboratory of the Brazilian Calibration Network of the National Institute of Metrology and Industrial Quality (RBC/INMETRO) provides the Metrological Traceability for the measurements of the samples collected. Despite all the care taken with quality assurance with the applied tools, Metrological Traceability alone cannot guarantee the total quality of the measurement results. Thus, a need was detected to implement a Quality Management System adapted to the laboratory for a probable Documentary Traceability that was lacking. NBR ISO/IEC 17025 and Good Laboratory Practices (GLP) were used as a basis for the implanted system. Finally, all this work was dedicated to approximate the Metrology, the Guarantee and a Quality Control to the university research laboratories, for which these concepts are applied in the academy to guarantee the reproducibility of the generated results.
|
Page generated in 0.0926 seconds