• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 103
  • 101
  • 95
  • 17
  • 10
  • 10
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 383
  • 39
  • 36
  • 35
  • 32
  • 31
  • 31
  • 29
  • 25
  • 19
  • 18
  • 17
  • 17
  • 16
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Algumas propostas para imputação de dados faltantes em Teoria de Resposta ao Item

Pereira, Edna Alessandra 07 July 2014 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2014. / Submitted by Raquel Viana (raquelviana@bce.unb.br) on 2014-10-20T18:57:42Z No. of bitstreams: 1 2014_EdnaAlessandraPereira.pdf: 880527 bytes, checksum: 06ad4747f8483b15b8dac261db7c5844 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2014-10-21T16:21:07Z (GMT) No. of bitstreams: 1 2014_EdnaAlessandraPereira.pdf: 880527 bytes, checksum: 06ad4747f8483b15b8dac261db7c5844 (MD5) / Made available in DSpace on 2014-10-21T16:21:07Z (GMT). No. of bitstreams: 1 2014_EdnaAlessandraPereira.pdf: 880527 bytes, checksum: 06ad4747f8483b15b8dac261db7c5844 (MD5) / Neste trabalho, são estudadas duas propostas de métodos de imputação de dados para o ajuste do modelo de três parâmetros em estudos de teoria de resposta ao item. O primeiro método proposto consiste em utilizar como probabilidade de resposta positiva para imputação de resposta o valor fornecido pela curva de regressão logística das respostas certas e erradas do indivíduo como função das estimativas do parâmetro de dificuldade para os itens respondidos pelo indivíduo. Obtida a curva logística, a probabilidade de resposta positiva para um item que o indivíduo não tenha respondido é obtida pela curva logística ajustada calculada no valor estimado do parâmetro de dificuldade do item não respondido. A partir desta probabilidade, imputa-se uma resposta correta ou não. O segundo método é similar ao primeiro, mas utiliza para imputação a probabilidade de resposta correta dada pelo valor da curva suavizada via kernel fornecida pela regressão isotônica das respostas corretas e incorretas (1 e 0) como função decrescente das estimativas do parâmetro de dificuldade do itens respondidos. Num estudo de simulação, as estimativas dos parâmetros dos itens e da proficiência obtidas a partir dos dados imputados pelos dois métodos e também sem imputação de dados são comparadas com os valores reais e com aqueles obtidos para os dados completos. _______________________________________________________________________________________ ABSTRACT / In this work we have studied two imputation procedures for missing data when fitting the three parameters model in item response theory studies. The first proposed method uses as the probability of imputation of correct response the value obtained from the logistic regression of the correct (1) and incorrect (0) answers as a function of the difficulty parameter estimates for the items with responses. We take the fitted logisitic curve and calculate the probability of imputation of positive response as a function of the value of the difficulty parameter estimates for the non responded items. The second method is similar to the first one, but we use the probability of imputation of a positive response provided by the kernel smoothed isotonic regression obtained taking the probability of positive response as a decreasing function of the estimated difficulty parameter for each item with a response. In a simulation study, the estimates of the item parameters and proficiency were compared to the real values and also to the estimates obtained for the data with no missing responses.
152

Nível de conhecimento dos profissionais de contabilidade em relação ao sistema público de escrituração digital por meio da teoria de resposta ao item

Silva Filho, Gilberto Magalhães da 06 February 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Universidade Federal da Paraíba, Universidade Federal do Rio Grande do Norte, Programa Multi-Institucional e Inter-Regional de Pós-Graduação em Ciências Contábeis, 2015. / Submitted by Ana Cristina Barbosa da Silva (annabds@hotmail.com) on 2015-03-19T18:20:42Z No. of bitstreams: 1 2015_GilbertoMagalhaesdaSilvaFilho.pdf: 1765024 bytes, checksum: 64343359aad8cd02d8a701292b31f4d1 (MD5) / Approved for entry into archive by Ruthléa Nascimento(ruthleanascimento@bce.unb.br) on 2015-04-29T17:36:09Z (GMT) No. of bitstreams: 1 2015_GilbertoMagalhaesdaSilvaFilho.pdf: 1765024 bytes, checksum: 64343359aad8cd02d8a701292b31f4d1 (MD5) / Made available in DSpace on 2015-04-29T17:36:09Z (GMT). No. of bitstreams: 1 2015_GilbertoMagalhaesdaSilvaFilho.pdf: 1765024 bytes, checksum: 64343359aad8cd02d8a701292b31f4d1 (MD5) / O Sistema Público de Escrituração Digital (Sped) representa uma iniciativa integrada das administrações tributárias federal, estadual e municipal, visando à modernização sistemática do cumprimento das obrigações acessórias pelas empresas. Representa, paralelamente ao processo de convergência às normas internacionais de contabilidade, uma grande mudança na área contábil com impactos legais, operacionais e profissionais. O contador moderno precisa acumular muitos conhecimentos e o Sped tem exigido por parte desses profissionais o domínio das ferramentas tecnológicas, assim como das normas e legislações que norteiam a profissão contábil. Diante do exposto, o presente estudo teve como objetivo medir o conhecimento dos profissionais de contabilidade do município de João Pessoa a respeito do Sped. A amostra da pesquisa foi formada por 209 profissionais de contabilidade que responderam a um questionário com 14 questões (itens) de múltipla escolha, validado por especialistas. A partir das ferramentas da Teoria Clássica dos Testes, foram realizadas as validações dos itens e do teste, fazendo uso da correlação ponto bisserial e do alfa de Cronbach. Em relação à correlação ponto bisserial, os resultados mostraram que, em geral, os itens apresentaram bom poder de discriminação e o item que apresentou maior índice de discriminação foi a questão que trata da obrigatoriedade da entrega dos livros fiscais em formato digital. Já a análise do alfa de Cronbach se mostrou adequada conforme a literatura pertinente, com p-valor = 0,678, indicando boa consistência interna do instrumento da pesquisa. Para mensurar o traço latente (conhecimento), utilizou-se o modelo de 1 parâmetro (Rasch) da Teoria de Resposta ao Item, que considera que as respostas de um sujeito dependem apenas do seu traço latente e do parâmetro de dificuldade de cada item. O resultado do modelo mostrou que os itens mais difíceis foram: 1 – Orientações observadas na elaboração da Escrituração Contábil Digital (ECD); 3 – Plano de Contas Referencial; e 8 – Processo de arquivamento da Nota Fiscal Eletrônica (NF-e), que demandavam maior conhecimento dos participantes. Em contrapartida, os itens: 12 – Empresas obrigadas à Escrituração Fiscal Digital (EFD) na Paraíba; e 11 – Documentos escriturados na EFD, apresentaram menor parâmetro de dificuldade. Quando considerado o conhecimento (ɵ) de cada participante, este se mostrou insatisfatório, uma vez que mais de 50% dos respondentes apresentaram escore de conhecimento inferior a -8,26 e 75% dos participantes obtiveram escore menor que 68,05, em uma escala que vai de -300 a +300. Os achados da pesquisa podem se justificar pelo fato de que a implantação do Sped está sendo um processo gradativo, que ainda não está concluído e não se estende a todas as empresas, sendo esperado que isso ocorra em 2015. / Public Digital Bookkeeping System (Sped) is an integrated initiative of federal, state and local tax administrations, aimed at systematic modernization of compliance of ancillary obligations by business. It represents, parallel to the process of convergence with international accounting standards, a big change in accounting with legal, operational and professional impacts. Modern accountant needs to accumulate a lot of knowledge, and Sped has required by these professionals mastery of technological tools, as well as rules and laws that govern the accounting profession. Given the above, this study aimed to measure the knowledge of accounting professionals in the city of João Pessoa about Sped. Research sample was formed by 209 accounting professionals who answered a questionnaire with 14 questions (items) of multiple choice, validated by experts. From tools of Classical Theory of Tests, validations of items and test was performed, using point biserial correlation and Cronbach’s alpha. Regarding biserial point correlation, results showed that, in general, items showed good discrimination power and the item with the highest index of discrimination was the question that deals with obligation of delivery of tax books in digital format. Analysis of Cronbach’s alpha was adequate according to relevant literature, with p-value = 0.678, indicating good internal consistency of research instrument. To measure latent trait (knowledge), the model of 1 parameter (Rasch) of Item Response Theory was used, which considers that the responses of a subject depend only on its latent trait and the parameter of difficulty of each item. Model output showed that most difficult items were: 1 – Guidelines observed in development of Digital Accounting Bookkeeping (ECD); 3 – Referential Accounting Plan; and 8 – Electronic Invoice (NF-e) archiving process, which demanded greater knowledge of the participants. However, the items: 12 – Companies obliged to Digital Tax Bookkeeping (EFD) in Paraíba; and 11 – Documents carried in EFD, had lower parameter of difficulty. When considering knowledge (ɵ) of each participant, this proved unsatisfactory, since over 50% of respondents had knowledge score less than -8.26 and 75% of participants had scores lower than 68.05, in a scale from -300 to +300. Research findings can be justified by the fact that implantation of Sped is being a gradual process, which is not yet complete and does not extend to all businesses, being expected this to happen in 2015.
153

Evaluation of a measure for construct degree of maturity of companies as to technology management: an application of the model in the case of gradual scale SIMAP / AvaliaÃÃo de um construto para medir o grau de maturidade das empresas quanto as tecnologias de gestÃo: uma aplicaÃÃo do modelo de escala gradual no caso SIMAP / AvaliaÃÃo de um construto para medir o grau de maturidade das empresas quanto as tecnologias de gestÃo: uma aplicaÃÃo do modelo de escala gradual no caso SIMAP / Evaluation of a measure for construct degree of maturity of companies as to technology management: an application of the model in the case of gradual scale SIMAP

Maria Emanuela Ferreira Nogueira 13 April 2012 (has links)
CoordenaÃÃo de AperfeiÃoamento de Pessoal de NÃvel Superior / Com a atual competitividade e exigÃncia do mercado, as empresas buscam, cada vez mais, um elevado grau de qualidade, garantindo, assim, sua permanÃncia no mercado. Para isso procuram uma constante atualizaÃÃo de tecnologias, modelos de organizaÃÃo e gestÃo, dentre outros. A cada dia surgem novos modelos e mÃtodos de implantaÃÃo de sistemas de gestÃo, onde a qualidade à um elemento nÃo mais distintivo, mas absolutamente essencial. Neste enfoque, a logÃstica se tornou ferramenta fundamental para reduÃÃo de custos e melhoria da qualidade. Para o bom desempenho das atividades logÃsticas de uma organizaÃÃo à preciso avaliar o desempenho da mesma no mercado e uma das possibilidades de avaliaÃÃo de desempenho logÃstico à o benchmarking. O presente estudo tem como objetivo aplicar a Teoria de Resposta ao Item, em particular, o Modelo de Escala Gradual, para analisar o grau de maturidade em relaÃÃo Ãs tecnologias de gestÃo, com base no construto do Sistema de Monitoramento de Arranjos Produtivos (SIMAP), que tem como finalidade atual o benchmarking competitivo. Os dados utilizados no trabalho sÃo de natureza secundÃria, provenientes de 39 itens avaliados em 109 empresas cadastradas no SIMAP. Os resultados revelados no estudo apresentaram indicativo de que as tecnologias âMÃtodo de anÃlise de investimentoâ, âEstudos de capabilidadeâ, âProgramas participativosâ, âCusteio ABCâ, âFilosofias e Ferramentas JITâ, âTempo de setupâ, âISO 14001â e âSA8000â oferecem uma maior contribuiÃÃo para medir o grau de maturidade das empresas quanto Ãs ferramentas de gestÃo. A empresa com maior grau de maturidade, 71,99 (na escala de (Â=50, σ=10)), à uma empresa de grande porte, pertence à cadeia produtiva de alimentos e bebidas, no elo dos fabricantes de laticÃnios, cevada, Ãgua e refrigerantes, que atua no mercado regional, com produÃÃo voltada para o abastecimento da regiÃo nordeste. O menor grau de maturidade, 31,63, foi encontrado em uma empresa de pequeno porte, pertencente à cadeia produtiva da construÃÃo civil, no elo da cerÃmica vermelha como varejista, tambÃm atuando no mercado regional. / Com a atual competitividade e exigÃncia do mercado, as empresas buscam, cada vez mais, um elevado grau de qualidade, garantindo, assim, sua permanÃncia no mercado. Para isso procuram uma constante atualizaÃÃo de tecnologias, modelos de organizaÃÃo e gestÃo, dentre outros. A cada dia surgem novos modelos e mÃtodos de implantaÃÃo de sistemas de gestÃo, onde a qualidade à um elemento nÃo mais distintivo, mas absolutamente essencial. Neste enfoque, a logÃstica se tornou ferramenta fundamental para reduÃÃo de custos e melhoria da qualidade. Para o bom desempenho das atividades logÃsticas de uma organizaÃÃo à preciso avaliar o desempenho da mesma no mercado e uma das possibilidades de avaliaÃÃo de desempenho logÃstico à o benchmarking. O presente estudo tem como objetivo aplicar a Teoria de Resposta ao Item, em particular, o Modelo de Escala Gradual, para analisar o grau de maturidade em relaÃÃo Ãs tecnologias de gestÃo, com base no construto do Sistema de Monitoramento de Arranjos Produtivos (SIMAP), que tem como finalidade atual o benchmarking competitivo. Os dados utilizados no trabalho sÃo de natureza secundÃria, provenientes de 39 itens avaliados em 109 empresas cadastradas no SIMAP. Os resultados revelados no estudo apresentaram indicativo de que as tecnologias âMÃtodo de anÃlise de investimentoâ, âEstudos de capabilidadeâ, âProgramas participativosâ, âCusteio ABCâ, âFilosofias e Ferramentas JITâ, âTempo de setupâ, âISO 14001â e âSA8000â oferecem uma maior contribuiÃÃo para medir o grau de maturidade das empresas quanto Ãs ferramentas de gestÃo. A empresa com maior grau de maturidade, 71,99 (na escala de (Â=50, σ=10)), à uma empresa de grande porte, pertence à cadeia produtiva de alimentos e bebidas, no elo dos fabricantes de laticÃnios, cevada, Ãgua e refrigerantes, que atua no mercado regional, com produÃÃo voltada para o abastecimento da regiÃo nordeste. O menor grau de maturidade, 31,63, foi encontrado em uma empresa de pequeno porte, pertencente à cadeia produtiva da construÃÃo civil, no elo da cerÃmica vermelha como varejista, tambÃm atuando no mercado regional. / The current competitive and demanding market make the companies look increasingly, a high degree of quality, thus ensuring their survival. To seek this constant updating of technologies, the companies need to update their organizational management models among other systems. Each day brings new models and methods of implementation of management systems, where quality is no longer a distinctive element, but absolutely essential. In this approach, logistics has become an essential tool for reducing costs and improving quality. For the good performance of the logistics activities of an organization it is necessary to evaluate its performance in the market and the possibilities of an assessment of logistics performance is benchmarking. The present study aims to apply the Item Response Theory, in particular, the Rating Scale Model, to analyze the degree of maturity in relation to management technologies, based on the construct of the Monitoring System Productive Arrangements (SIMAP), which aims to present the competitive benchmarking. The data used in this work are of secondary nature, from 39 items valued at 109 companies registered in SIMAP. The results revealed in the study had indicated that the technology âMethod of investment analysisâ, âCapability studiesâ, âParticipatory programsâ, âCosting ABCâ, âPhilosophies and Tools JITâ, âTime setupâ, âISO 14001â and âSA8000â provide a major contribution to measure the degree of maturity of the companies regarding to the management tools. The company with the highest degree of maturity, 71.99 (in the range of (μ = 50, σ = 10)), is a midsize company, which belongs to the productive chain of food and beverage manufacturers in the link of the dairy / barley / water and soft drinks, which operates in regional market, with production geared to supply the Northeast. The smaller degree of maturity, 31.63, was found in a small business, belonging to the productive chain of construction, linked to the red ceramic as a retailer, also serving the regional market. / The current competitive and demanding market make the companies look increasingly, a high degree of quality, thus ensuring their survival. To seek this constant updating of technologies, the companies need to update their organizational management models among other systems. Each day brings new models and methods of implementation of management systems, where quality is no longer a distinctive element, but absolutely essential. In this approach, logistics has become an essential tool for reducing costs and improving quality. For the good performance of the logistics activities of an organization it is necessary to evaluate its performance in the market and the possibilities of an assessment of logistics performance is benchmarking. The present study aims to apply the Item Response Theory, in particular, the Rating Scale Model, to analyze the degree of maturity in relation to management technologies, based on the construct of the Monitoring System Productive Arrangements (SIMAP), which aims to present the competitive benchmarking. The data used in this work are of secondary nature, from 39 items valued at 109 companies registered in SIMAP. The results revealed in the study had indicated that the technology âMethod of investment analysisâ, âCapability studiesâ, âParticipatory programsâ, âCosting ABCâ, âPhilosophies and Tools JITâ, âTime setupâ, âISO 14001â and âSA8000â provide a major contribution to measure the degree of maturity of the companies regarding to the management tools. The company with the highest degree of maturity, 71.99 (in the range of (μ = 50, σ = 10)), is a midsize company, which belongs to the productive chain of food and beverage manufacturers in the link of the dairy / barley / water and soft drinks, which operates in regional market, with production geared to supply the Northeast. The smaller degree of maturity, 31.63, was found in a small business, belonging to the productive chain of construction, linked to the red ceramic as a retailer, also serving the regional market.
154

Resolução de Problemas de Geometria Gráfica em Ambiente Computacional: o caso da interseção entre planos

FERREIRA, Bruno Leite 24 February 2011 (has links)
Submitted by Caroline Falcao (caroline.rfalcao@ufpe.br) on 2017-05-24T17:31:26Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) BRUNO FERREIRA-protegido - DISSERTAO.pdf: 4975980 bytes, checksum: e85d55190b5c3de6c457c5d296450623 (MD5) / Made available in DSpace on 2017-05-24T17:31:26Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) BRUNO FERREIRA-protegido - DISSERTAO.pdf: 4975980 bytes, checksum: e85d55190b5c3de6c457c5d296450623 (MD5) Previous issue date: 2011-02-24 / Os Parâmetros Curriculares Nacionais (PCN) de Matemática pressupõem para a educação fundamental, dentro do bloco de Espaço e Forma, a interpretação e representação de posição e de movimentação no espaço. Entretanto, por diversas razões, o ensino da Geometria Gráfica, disciplina que desenvolve habilidades de visualização espacial necessárias para os requisitos citados dos PCN, tem se enfraquecido na educação básica, tendo como consequência, entre outras, levar ao ensino superior alunos com baixo nível dessa habilidade. Investigações na Área da Expressão Gráfica e da Educação Matemática levantam três tipos de dificuldades: epistemológicas, didáticas e cognitivas. Referente ao uso de tecnologias computacionais, estudos apontam que essas dificuldades podem ser superadas. Porém, o simples uso do computador não garante que ocorram aprendizagens. Nessa direção, propomos investigar os efeitos do uso de um programa de modelagem computacional por alunos de graduação para resolver uma situação problema de Geometria Gráfica Tridimensional. Como hipótese inicial, pressupomos que ao utilizarem o programa as dificuldades com relação à visualização espacial diminuem, contribuindo para os alunos resolverem o problema corretamente. Para nossa investigação, iniciamos com o estudo da Geometria Gráfica Tridimensional, enfocando a questão da representação desde a fisiologia da visão até os métodos de ensino utilizados. Após o estudo histórico e metodológico do método de Monge, enfocamos as questões didático-pedagógicas, abordando as dificuldades de aprendizagem dos alunos. Utilizamos a teoria das Situações Didáticas de Brousseau como norteadora da organização do nosso experimento, preocupando-se com a noção de meio (milieu) e sua importância na construção de situação de aprendizagem. Em nossa metodologia realizamos uma análise a priori para a escolha do programa de modelagem, bem como do problema. Foram sujeitos da pesquisa oito alunos do curso de licenciatura em Expressão Gráfica da UFPE, matriculados na disciplina de Geometria Gráfica Tridimensional I. O Conteúdo escolhido foi “interseção entre planos”. Como instrumento de coleta de dados, utilizamos um teste de visualização espacial, no início do semestre. A situação problema foi aplicada em dois ambientes, em prancheta, com uso dos instrumentos tradicionais de desenho e em laboratório de informática, usando uma ferramenta computacional selecionada, além de entrevistas semiestruturadas após cada aplicação da situação problema. Como técnica de análise utilizamos a “análise de conteúdo” a partir do levantamento de técnicas utilizadas na resolução do problema e nas fases de resolução de problemas em GGT, fases inspiradas de Barros & Santos e Polya. Como resultado, percebemos que o uso do programa de modelagem minimizou as dificuldades quanto à visualização espacial, apesar deste fato não garantir o avanço da resolução do problema em comparação com o uso dos instrumentos tradicionais de desenho. Isso se deve à dificuldade com relação ao próprio conteúdo. Em contrapartida, os alunos realizaram a fase de retrospecto em todo processo operacional, o que antes não ocorria ou somente ocorria no final da resolução. Além disso, a etapa de Exploração proporcionou a elaboração de maior número de técnicas com uso da ferramenta computacional, dando-nos a oportunidade de identificar a gênese das dificuldades dos alunos para, futuramente, elaborar metodologias que minimizem essas dificuldades, conduzindo o aluno a uma aprendizagem efetiva dos conhecimentos em jogo. / Les programmes nationaux d'enseignement (PCN) des mathématiques présuppose pour l'enseignement fondamental, dans le bloc de contenus « Espace et Forme », l'interprétation et la représentation de positions et mouvement dans l'espace. Pour diverses raisons, l'enseignement de la géométrie graphique, discipline que développe les aptitudes de visualisation spatiale nécessaire aux exigences des PCNs cités, a perdu de l'espace dans l'enseignement fondamental, permettant à des élèves ayant ces aptitudes peu développées d'accéder à l'enseignement supérieur. Des recherches dans le domaine de l'expression graphique et de l'enseignement des mathématiques mettent en évidence trois types de difficulté : épistémologiques, didactiques et cognitives. Relativement à l'utilisation de technologies informatiques, des études montrent que ces difficultés peuvent être dépassées, pourtant la simple utilisation de l'ordinateur ne garantit qu'il y ait des apprentissages. Dans ce sens, nous avons proposé d'étudier les effets de l'utilisation par des élèves d'université d'un logiciel de modelage pour résoudre une situation problème de Géométrie Graphique Tri-dimensionnelle. Comme hypothèse initiale, nous avons supposé que par l'utilisation du programme, les difficultés relatives à la visualisation spatiale diminuerai et contribuerai à ce que les élèves résolvent le problème correctement. Pour notre recherche, nous commençons par l'étude de la Géométrie Graphique, nous focalisant sur la question de la représentation graphique de la physiologie de la vision aux méthodes d'enseignement en oeuvre. Après l'étude historique et méthodologique des principes géométriques de Monge, nous avons abordé les questions didactiques-pédagogiques, nous intéressant particulièrement aux difficultés d'apprentissage des élèves. La théorie des situations didactiques de Guy Brousseau nous a servi de guide pour l'organisation de notre expérimentation, nous préoccupant particulièrement de la notion de milieu et son importance dans la construction de situation d'apprentissage. Pour notre méthodologie, nous avons réalisé une analyse a priori pour le choix du logiciel de modelage et de la situation problème. Huit élèves du cours de licenciatura en Expression Graphique de l'UFPE faisant la disciplina de Géométrie Graphique Tri-Dimensionnelle I. Le contenu choisi a été l'intersection entre plans. Comme instrument de collecte des données, nous avons utilisé un test de visualisation spatiale au début du semestre ; une situation-problème appliquée dans deux environnements : planchette avec l'utilisation des instruments classiques de dessin et en laboratoire d'informatique avec le logiciel de modelage sélectionné ; et des interviews semi-structurées après chaque mise en oeuvre de la situation problème. Comme technique d'analyse, nous avons mis en oeuvre l'analyse de contenu à partir de la mise en évidence de techniques utilisées de la résolution de problème et des phases de résolutions de problème en GGT, phases inspirées de Barros & Santos et Polya. Comme résultat, nous avons observé que l'utilisation d'un logiciel de modelage a réduit les difficultés de visualisation spatiale, mais ce fait n'a pas garanti l'avancée dans la résolution de problème en comparaison avec l'utilisation des instruments classiques de dessin. Ceci vient de la difficulté avec le contenu lui-même. En contrepartie, les élèves ont effectué la phase de rétrospective dans tout le processus opérationnel, ce qui n'est pas le cas ou seulement à la fin de la résolution dans l'environnement classique. De plus, l'étape d'exploration a provoqué l'élaboration d'un plus grand nombre de techniques dans l'environnement informatique donnant la possibilité d'identifier la genèse des difficultés des élèves et, dans le futur, élaborer des méthodes que minimisent ces difficultés, amenant les élèves à un apprentissage effectif des connaissances en jeu.
155

Generation of floating islands using height maps

Sandberg, Roland January 2013 (has links)
A floating island was generated using two height maps, one for the bottom of the island and one for the top. Vertices of the island was displaced in the Y axis using an algorithm called Simplex noise. To avoid texture stretching that appears when displacing the vertices an algorithm called “tri planar projection” was implemented. After the vertices had been displaced the normal was smoothed using “normal smoothing”. An algorithm here called “the AVG algorithm” is created to smooth jig sawed edges around the island that appears after the island has been generated. The results of the AVG algorithm is judged by a group of 26 participants to see if any jig sawed edges are perceived. They answered a survey containing seven pictures, with each picture having one more iteration of the AVG algorithm then the last, starting from 0 iterations. Five iterations proved to be the best.
156

Chromatographie cellulaire d'affinité : étude expérimentale des mécanismes de capture spécifique et implications pour un développement industriel / Cell affinity chromatography : experimental study of specific capture mechanisms and implications for industrial development

Brouchon, Julie 11 September 2015 (has links)
Cette thèse a pour objectif le développement d'une technologie de tri cellulaire reposant sur le principe de la chromatographie d'affinité, pour des applications médicales. Pour cela les mécanismes gouvernant la capture spécifique des cellules dans une colonne chromatographique ont été étudiés. Dans un premier temps une étude sur un système modèle met en évidence le rôle prépondérant de l'étape de transport permettant la rencontre entre les cellules et la surface de capture. Le transport est principalement assuré par la sédimentation des cellules. Cela implique que la vitesse d'écoulement dans la colonne est un paramètre déterminant pour optimiser cette étape de rencontre. La capture de cellules est ensuite étudiée dans son ensemble : la rencontre et la formation du lien spécifique. Selon la vitesse d'écoulement deux régimes se distinguent. Pour des vitesses inférieures à 10-3 m.s-1 la cinétique de capture est gouvernée par la cinétique de rencontre. Pour des vitesses plus élevées toutes les rencontres n'aboutissent pas à une capture spécifique. La cinétique de capture est alors limitée par le transport et par la formation du lien. Cette étude expérimentale permet de dimensionner la technique de tri par chromatographie selon les besoins de l'application considérée. En particulier le tri à grande échelle (jusqu'à 1012 cellules) par chromatographie d'affinité est envisageable en ce qui concerne la durée de séparation et les dimensions de la colonne. / Development of cell sorting system based on affinity chromatography for medical application is the goal of this thesis. We study mechanisms responsible for specific cell capture in chromatographic column. First an experimental study on system model emphasize the importance of the transport step, which allows the encounter between cells and surface of capture. Cell sedimentation in the main way of transport. That means flow velocity is a key parameter to optimize this transport step. Then the whole cell capture is studied : encounter and specific link formation. Depending on the flow velocity, there are two regimens. Until a velocity of 10-3 m.s-1, kinetics of capture is governed by encounter kinetics. For higher velocity, only fraction of encounters leads to cell capture. The capture kinetics depends not only on transport, but also on kinetics of formation of specific link. This experimental study allows us to design cell affinity chromatography depending on the need of each application. Especially, cell sorting at industrial scale is conceivable concerning the separation duration and column dimensions.
157

Le tri de mots : pour une grammaire utile aux élèves, dans la continuité et la cohérence / Words sorting

Beaumanoir-Secq, Morgane 08 December 2016 (has links)
S’inscrivant dans le champ des recherches concernant les représentations des élèves sur la langue, cette étude exploratoire utilise un dispositif didactique particulier, le tri de mots à visée grammaticale, afin de recueillir des données lors du suivi longitudinal d’une classe située en zone d’éducation prioritaire, sur une durée de deux années, en CE2 et CM1. Le corpus constitué par les traces écrites produites par les élèves a fait l’objet d’un traitement statistique afin d’en permettre la lisibilité. Les outils d’analyse linguistiques et didactiques utilisés ont permis de conforter des hypothèses déjà émises, mais aussi de dégager des tendances nouvelles concernant l’acquisition des classes grammaticales par les élèves de l’école élémentaire. Les résultats exposés portent sur les savoirs et savoir-faire des élèves, mais aussi sur l’éclairage que ces conceptions apportent sur les systèmes d’explication de la langue. Entre grammaire scolaire et linguistique, il s’agit de mieux comprendre le point de vue des élèves sur la langue afin d’ouvrir des pistes de réflexions didactiques / Fitting in the field of research relating to the representations of the pupils on the language, this exploratory study uses a particular didactic device, the sorting of words to grammatical aiming, in order to collect data at the time of the longitudinal follow-up of a class located in zone of priority education, over one two years duration, in CE2 and CM1. The corpus consisted the hard copies produced by the pupils was the object of a statistical processing in order to allow legibility of it. The linguistic and didactic tools for analysis used made it possible to consolidate already put forth hypotheses, but also to release from the new trends concerning the acquisition of the parts of speech by the pupils of the elementary school. The exposed results relate on the knowledge and know-how of the pupils, but also to the lighting which these designs bring on the systems of explanation of the language. Between school and linguistic grammar, it is a question of better understanding the point of view of the pupils on the language in order to open didactic lines of thinking
158

Understanding flow and chunking constructs in self service technologies

Esterhuyse, Jacques January 2013 (has links)
When developing new services on SSTs it is very important to keep in mind what the user experience is when using it and that this experience will vary across different types of users. This study intends to investigate the flow experience of users when presented with different types of menu options (chunked / grouped vs. a listed menu) across different types of users. The research is quantitative and causal in nature, and used an experimental factorial design in the conduct of the research. The TRI and flow scales were used in the questionnaire design and a total of 139 respondents were involved in the experiment. The study found that the impact of flow is greater with lower TRI respondents than with higher TRI respondents on SSTs / Dissertation (MBA)--University of Pretoria, 2013. / ccgibs2014 / Gordon Institute of Business Science (GIBS) / MBA / Unrestricted
159

Attraction des cellules sur micro-aimants : applications au suivi de l'endocytose et au tri cellulaire .

Osman, Osman 25 April 2014 (has links)
De nos jours, la manipulation d’objets à l’aide du champ magnétique se trouve au cœur de nombreuses innovations en nanotechnologies. D’autre part, et du fait de sa capacité d’actionner à très petite échelle, l’utilisation du champ magnétique en biologie et en médecine est en plein essor. En outre, les grandes avancées en matière de fabrication de micro-sources magnétiques ont permis la synthèse d’aimants de tailles micrométriques intégrables dans des microsystèmes microfluidiques comme les laboratoires sur puce, très à la mode à l’heure actuelle. Bien que la séparation de cellules marquées magnétiquement, à l’aide d’un macro-aimant permanent ou d’électroaimant est une tâche aujourd’hui bien maitrisée, le gradient de champ généré par ces sources magnétiques reste insuffisant pour l’isolement de cellules marquées avec une très faible quantité de nanoparticules magnétiques. La réduction de la taille des aimants, évoquée dans cette thèse, constitue une alternative prometteuse, permettant la génération d’énormes gradients de champ magnétique à l’échelle micrométrique. L’objectif de ce travail est donc d’étudier l’attraction de cellules faiblement marquées magnétiquement, sur des réseaux de micro-aimants permanents micro-structurés, dans le but de concevoir un dispositif microfluidique original intégrant des micro-sources magnétiques permanentes, autonomes et passives. / Nowadays, the magnetic field applications at the microscopic scale have been described by an increasing attention as magnetic sources. Moreover, they can be integrated directly in the microchip. Nevertheless, the process of manipulating magnetic micro objects remains a challenge since the generation of magnetic fields and field gradients is strong enough. Previous research has reported the use of microelectromagnets to create magnetic field gradients in order to manipulate biological objects. However, the use of permanent magnetic microstructures permits to avoid Joule heating issues inherent to the electromagnets. In addition, no energy source is required. The aim of this thesis is to study the influence of physico-chemical characteristics of iron oxide nanoparticles on the rate of endocytosis, using an array of micro-magnets. Most probably, the applications of this reserach can be directly related to the gene therapy and can occur in most basic genetic studies. Another part of this work consists of combining microfluidic and magnetic forces in order to develop a cell sorting micro-systems that can be integrated in lab-on-chip or MEMS.
160

Construction de courbes de fragilité sismique par la représentation de Karhunen-Loève / Construction of seismic fragility curves with the Karhunen-Loève expansion

Giraudeau, Fabien 08 January 2015 (has links)
La probabilité de défaillance d’une structure sous séisme est représentée à l’aide de « courbes de fragilité ». Pour les estimer, nous proposons d’enrichir une base de données pré-existante à l’aide du modèle de l’article de F. Poirion et I. Zentner, Stochastic model construction of natural hazards given experimental data, qui se fonde sur la représentation de Karhunen-Loève. Les signaux générés sont triés par classes d’indicateur de nocivité sismique à l’aide d’un algorithme de partitionnement de données. Malgré la ressemblance certaine que présentent plusieurs signaux simulés, et les conséquences que nous tirons de ce problème, ils sont soumis à la structure. Les signaux de réponses résultants sont eux aussi enrichis, en prenant en compte certaines incertitudes afin de construire un intervalle autour de la courbe. La méthode fonctionne pour tout indicateur de nocivité sismique, et permet de s’affranchir de plusieurs hypothèses simplificatrices courantes. Les caractéristiques du scénario sismique sont conservées lors de l’enrichissement, et le processus modélisant le mouvement du sol garde toute sa généralité. Notre démarche est validée d’abord sur un cas simple, puis sur un cas industriel. / The failure probability of a structure under earthquake is represented with « fragility curves ». To estimate them, we propose to enrich a pre-existing data basis using the model of the article Stochastic model construction of natural hazards given experimental data, written by F. Poirion et I. Zentner, which is based on the Karhunen-Loeve expansion. The generated signals are sorted by seismic indicator classes using a data partitioning algorithm. Despite the resemblance between some simulated signals, and the consequences we draw from this problem, the structure is submitted to them. The resulting response signals are also enriched, taking into account uncertainties to construct an interval around the curve. The method works for any seismic indicator, and overcomes several common simplifying assumptions. The characteristics of the seismic scenario are preserved during the enrichment, and the process modeling the ground motion retains its generality. Our approach is first validated on a simple case, then on an industrial case.

Page generated in 0.0475 seconds