• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 433
  • 51
  • 9
  • 6
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 507
  • 456
  • 428
  • 374
  • 372
  • 372
  • 369
  • 368
  • 280
  • 116
  • 104
  • 82
  • 71
  • 68
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Development of a Rasch/Guttman Scenario Instrument to Measure Teachers' Use of Data to Inform Classroom Instruction:

Hogue, Caitlin Diane January 2022 (has links)
Thesis advisor: Larry H. Ludlow / Teachers in the United States are increasingly tasked with using data to inform their classroom instruction both through federal policies, such as the Every Student Succeeds Act (ESSA, 2016), and state policies requiring the use of teacher-determined data-driven goals for performance evaluations (MA 603 CMR 35.07). Many teachers, however, report that they feel underprepared to engage in this type of work (Dunn et al., 2013), also called Data-Driven Decision Making (DDDM). In addition, there is currently a limited set of instruments to measure the construct of using data to inform classroom instruction and the instruments that currently exist measure this construct using a typical Classical Test Theory design.This work developed an instrument called the Using Data to Inform classroom Instruction (UDII) scale to measure teachers’ use of data to inform classroom instruction. It used the Rasch/Guttman Scenario (RGS) methodology, an approach that develops scenarios that reflect the rich lived experiences of individuals (Antipkina & Ludlow, 2020; Ludlow et al., 2014). The RGS approach utilizes the Rasch model, part of the family of Item Response Theory models, which conceptualizes a construct as a hierarchical continuum. Scenario items and people are plotted on the same variable map, which allows for the development of rich descriptions of individuals at particular raw score locations on the continuum. An interpretative variable map is included to help schools and districts use the results of the survey. This work adds to the growing body of literature utilizing the RGS approach, as well as the literature focused on the use of data to inform classroom instruction (or DDDM). The UDII scale can be utilized by schools and districts who are engaged in the work of using data to inform classroom instruction to identify the current skillsets of teachers and/or teams of teachers to provide differentiated support, or it can be used before and after an intervention focused on using data to inform classroom instruction to measure change. / Thesis (PhD) — Boston College, 2022. / Submitted to: Boston College. Lynch School of Education. / Discipline: Educational Research, Measurement and Evaluation.
312

Aplica??o do m?todo de fus?o para verifica??o de locutor independente de texto

Silva, Mayara Ferreira da 10 July 2015 (has links)
Submitted by Setor de Tratamento da Informa??o - BC/PUCRS (tede2@pucrs.br) on 2016-01-04T17:56:48Z No. of bitstreams: 1 DIS_MAYARA_FERREIRA_DA_SILVA_COMPLETO.pdf: 2803272 bytes, checksum: 9305b74451ec83ddca38d1c444ffb3dd (MD5) / Made available in DSpace on 2016-01-04T17:56:48Z (GMT). No. of bitstreams: 1 DIS_MAYARA_FERREIRA_DA_SILVA_COMPLETO.pdf: 2803272 bytes, checksum: 9305b74451ec83ddca38d1c444ffb3dd (MD5) Previous issue date: 2015-07-10 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior - CAPES / This work presents an overview of text independent speaker verification, describing the basic operation of the system and the reviewing some important developments in speaker modeling and feature extraction from speech. Following, a point of improvement identified within the feature extraction stage leads to the main objective of this work: to determine one or more sets of coefficients relevant to speaker discrimination while minimizing the equal error rate (EER). The proposal is to replace the delta(?) and double-delta(??) coefficients by a linear predictor code (LPC) for the mel frequency cepstral coefficients (MFCC). In addition, score level fusion is employed to combine the ouputs of MFCC-only and MFCC-LPC systems, as well as MFCC-only and MFCC-?-?? systems. In all cases, performance is evaluated with respect to variations of the signal to noise-ratio (SNR) in the tested audio. In addition, the work introduces a new Brazilian Portuguese speech repository containing free-speech from 155 males. Results and discussions are presented with a reflection on the expected outcomes, as well as general comments and observations. Finally, concludings remarks are made about the work, featuring future prospects regarding text independent speaker verification research. This work attained a 4% reduction in the EER compared to the reference system (MFCC-only), with best results occuring in the case fusion of MFCC-only and MFCC-?-?? scores. / Este trabalho apresenta uma vis?o geral acerca de verifica??o de locutor independente de texto, demonstrando o funcionamento b?sico do sistema e as principais refer?ncias de m?todos j? utilizados ao longo de anos para extra??o de caracter?sticas da fala e modelamento do locutor. Detectado um ponto a ser trabalhado dentro da etapa de extra??o de caracter?sticas, objetiva-se determinar coeficientes ou um conjunto destes relevantes para discrimina??o do locutor, com o intuito de minimizar a EER (Equal Error Rate). A proposta consiste em substituir os coeficientes delta(?) e double-delta(?2) por coeficientes de um preditor LPC (Linear Predictor Coding) o qual realiza a predi??o dos coeficientes MFCC (Mel Frequency Cepstral Coeficients). Al?m disso, aplica-se uma fus?o a n?vel de score em fun??o de sistemas baseados em MFCC e LPC. Outra an?lise discutida no trabalho ? a fus?o de um sistema MFCC com ? e ??. Um t?pico tamb?m avaliado ? com rela??o a varia??es de SNRs (Signal to Noise Ratios) nos ?udios testados. Al?m disso, ? elaborado um banco de falas em portugu?s brasileiro. Por fim, s?o expostos os resultados obtidos e ? feita a an?lise dos mesmos, a fim de refletir sobre o que era esperado e levantar alguns coment?rios. Enfim, s?o feitas as considera??es a respeito do trabalho, e elencadas as perspectivas futuras em torno das pesquisas de verifica??o de locutor independente de texto. Com este trabalho atingiu-se uma redu??o de 4% na taxa de erro igual (EER) em compara??o ao sistema de refer?ncia, sendo que os melhores resultados foram apresentados pelo sistema que realiza um fus?o do sistema MFCC com o ? e ??.
313

Legitimitet i allmännyttiga ideella föreningar : en kvalitativ studie om skapandet och bevarandet av legitimitet genom årsredovisningen

Dracic, Anela, Koliana, Daniel January 2016 (has links)
Allmännyttiga ideella föreningar är en samling av människor med gemensamma intressen som arbetar för allmänhetens nytta. Verksamheten kräver resurser för att drivas vilket oftast genereras av samhället i form av bidrag och donationer. Därav blir ideella föreningar beroende av intressenter som tillför resurser för att kunna driva en ideell verksamhet. Beroendet kräver i sin tur att ideella föreningar anses vara legitima. Föreningar använder därför strategier för att skapa och bevara legitimitet, varav årsredovisningar är ett av verktygen som används. Syftet med studien är att skapa en förståelse för hur allmännyttiga ideella föreningar använder årsredovisningar för att skapa och bevara legitimitet. En kvalitativ innehållsanalys har utförts på tio allmännyttiga ideella föreningars årsredovisningar genom en undersökningsmodell för att identifiera koder, nyckelord och meningsbärande enheter i ett kodningsschema. Undersökningsmodellen bygger på tidigare forskning kring fyra olika strategier som är; informera, anpassa, ändra och manipulera. Resultatet av studien visar att allmännyttiga ideella föreningar informerar, anpassar, ändrar eller manipulerar genom årsredovisningarna för att skapa och bevara legitimitet. Studiens teoretiska bidrag är en mer teoretiskt utvecklad modell för en fortsatt framtida forskning. Studiens sociala bidrag är att bidra med en förståelse för hur allmännyttiga ideella föreningar skapar och bevarar legitimitet genom årsredovisningen. / Public non-profit organizations are groups of people with common interests working towards specific goals. To be able to operate, the organizations require resources generated by the society through gifts and donations. Therefore, the organizations are dependent on the stakeholders to be able to survive the market. Organizations also require that the society assumes the non-profit organizations to be legitimate. Legitimacy can be created and maintained through various strategies, including annual reports as one of the tools to do so. The purpose of the study is to create an understanding of how public non-profit organizations uses annual reports to create and maintain legitimacy. A qualitative content analysis is adapted on ten annual reports of public non-profit organizations through a research model to identify codes, keywords and meaningful components in an encoding scheme. The research model is based on previous research on four different strategies; inform, adapt, modify and manipulate. The results of the study indicate that public non-profit organizations inform, adapt, modify or manipulate in order to create and maintain legitimacy through the annual reports. The study’s theoretical contribution is a further developed theoretical model for future research. The study’s social contribution is to contribute with an understanding of how the public non-profit organizations in Sweden create and maintain legitimacy through annual reports.
314

Aprendizagem sem erro em idosos nas oficinas de inclus?o digital

Goulart, Denise 31 May 2011 (has links)
Made available in DSpace on 2015-04-14T13:53:48Z (GMT). No. of bitstreams: 1 438935.pdf: 99331 bytes, checksum: a10c49a5ae5179d2b8918c80e01ae2e7 (MD5) Previous issue date: 2011-05-31 / The study, using a descriptive, exploratory design, was developed in a case study approach and performed in a quanti-qualitative methodology with an interventional analysis in a longitudinal perspective. Its main objective was to analyze the effect of an errorless learning methodology in a program of digital inclusion workshops for aged people trying to find, therefore, arguments to confirm the thesis that the errorless learning technique supports computer-related learning in digital inclusion workshops for elderly people. The sample consisted of 25 elderly people divided in two groups (14/11), named Group 1 and 2, with mean age of 68 years. Concerning to the education level, 11 of them were graduates. It was observed that 13 people participating of group 1 had a computer and 11 from group 2 did. During the development of the intentional intervention tasks, data were collected through participant observation, perceiving the progress and difficulties of each student at every meeting and describing it in evaluation forms. Each operation developed was requested the same number of times so it was possible to observe which computer-related activities were more and less successful. Quantitative data contained in the evaluation forms and socio-demographic data from groups 1 and 2 were subjected to descriptive statistics treatment, the tests with inferential statistics analysis (two-way ANOVA followed by Tukey post hoc test, when necessary, and categorical data with the Chi-Square Test). The effects of methodological approach in the digital inclusion workshops on the learning process showed by the aged people were analyzed according to the Student t test for independent samples. The effect of digital inclusion workshops on cognitive aspects of the aged people who participated in this study was analyzed with the Student t test for independent samples. The measures have been presented by mean ? standard error, p<0,05 and it was considered significative, which means the method was efficient. In order to complement, qualitative data were analyzed according to the Analysis of Content proposed by Bardin demonstrating that the aged people appreciated the method and they felt included because they could learn without the fear of making a mistake. Self esteem increase, joy and sharing between colleagues were also observed among the participants. / O estudo, de car?ter explorat?rio-descritivo, foi desenvolvido na abordagem de um Estudo de Caso, adotando uma metodologia quanti-qualitativa, com a Interven??o de cunho longitudinal. Teve como objetivo geral analisar o efeito de uma metodologia de aprendizagem sem erro em Oficinas de Inclus?o Digital para idosos buscando, assim, argumentos para a confirma??o da tese de que a t?cnica de aprendizado sem erro auxilia no ensino de Inform?tica em Oficinas de Inclus?o Digital de idosos. A amostra foi constitu?da por vinte e cinco idosos, divididos em dois grupos (14/11), nomeados por Grupos 1 e 2, apresentando m?dia de idade de sessenta e oito anos, sendo que onze possuem curso universit?rio completo. Em rela??o ? Inform?tica, foi observado que treze idosos do Grupo 1 possu?am computador e onze do Grupo 2. Durante o desenvolvimento das atividades de Interven??o intencional, os dados foram coletados por meio de observa??o participante, acompanhando os progressos e as dificuldades de cada um dos alunos e pontuando, a cada encontro, em uma Ficha de Avalia??o de Rendimento. Cada opera??o desenvolvida foi solicitada com o mesmo n?mero de vezes e, dessa forma, foi poss?vel observar quais atividades de ensino em Inform?tica foram as que tiveram maior ?xito e/ou d?ficits. Os dados quantitativos da Ficha Informativa com os dados s?cio-demogr?ficos dos Grupos 1 e 2 receberam tratamento de Estat?stica Descritiva, com os Testes com an?lise de Estat?stica Inferencial (ANOVA seguida do teste post hoc de Tukey, quando necess?rio, e os dados categ?ricos com teste Qui-quadrado.). Os efeitos (n?mero de erros nas situa??es de teste) da abordagem metodol?gica das Oficinas de Inclus?o Digital sobre o aprendizado dos idosos foram analisados pelo teste t de Student para amostras independentes. O efeito das Oficinas de Inclus?o Digital nos aspectos cognitivos dos idosos que participaram delas com Teste t de Student para amostras (IN)dependentes. Todos os resultados foram expressos com m?dia + erro padr?o, p<0,05, sendo considerado que houve uma diferen?a significativa, isto ?, o m?todo mostrou-se eficaz. Complementarmente, os qualitativos com An?lise de Conte?do de Bardin, revelando que apreciaram o m?todo, sentiram-se inclu?dos, aprenderam sem temor, foi mais prazeroso trabalhar sem erro, pois ficaram sem receio de errar, melhora na autoestima, sentimentos de alegria e partilha com colegas.
315

A efetividade de um programa ergon?mico em idosos ativos usu?rios da inform?tica

Lima, Jo?o Borges de 25 May 2007 (has links)
Made available in DSpace on 2015-04-14T13:54:19Z (GMT). No. of bitstreams: 1 391961.pdf: 2617959 bytes, checksum: b8dd878226e173f69eff0ab729f32d3a (MD5) Previous issue date: 2007-05-25 / Introdu??o: Conjuntamente com o crescimento demogr?fico da popula??o idosa, h? um avan?o tecnol?gico, percebido tamb?m pelo maior uso de computadores nos diversos segmentos sociais e para as mais diferentes aplica??es. Por essa raz?o, ? imprescind?vel que o indiv?duo idoso seja inserido nesse contexto de avan?o tecnol?gico. No entanto, o advento da inform?tica tem gerado conseq??ncias f?sicas em seus usu?rios, principalmente quando utilizam o computador por longos interruptos per?odos. Objetivos: Verificar a efetividade de um Programa Ergon?mico, elaborado a partir de um Protocolo Avalia??o Fisioterap?utica, para Interven??o Postural para idosos participantes de Oficina de Inclus?o Digital; e como objetivos espec?ficos: a) avaliar a resposta dos idosos submetidos a um Programa Ergon?mico de interven??o, elaborado a partir de um Protocolo de Avalia??o Fisioterap?utica, postura no ambiente das oficinas de inclus?o digital; b) identificar no ambiente da oficina de alfabetiza??o digital fatores que podem influenciar as posturas adotadas em frente ao computador; c) avaliar os resultados da aplica??o do Protocolo de Avalia??o Fisioterap?utica de Interven??o Postural na preven??o e/ou redu??o de altera??es posturais dos idosos participantes das oficinas de alfabetiza??o digital. Materiais e M?todos: o estudo foi desenvolvido numa abordagem quanti-qualitativa em que foram avaliados 40 idosos. Inicialmente foi realizada uma avalia??o postural por meio do Protocolo de Avalia??o Fisioterap?utica e por fotografia da postura do idoso frente ao computador, para identifica??o de poss?veis desvios. Ap?s, realizou-se a an?lise do ambiente da oficina tendo como base refer?ncias bibliogr?ficas, buscando identificar-se fatores que pudessem contribuir para altera??es posturais nos idosos integrantes. Com base nos fatores elencados e na avalia??o postural, foi aplicado o Programa Ergon?mico de Interven??o. O programa ergon?mico foi constitu?do por alongamentos e orienta??es ergon?micas. A aplica??o do Programa foi realizada duas vezes por semana, durante cinco semanas. Ao final das cinco semanas de aplica??o, foi realizada outra avalia??o postural. Al?m disso, foi utilizada a goniometria tamb?m como par?metro de efetividade para mobilidade da coluna cervical e fez-se a constata??o de queixas f?sicas que os idosos participantes poderiam apresentar ap?s aplica??o do protocolo. Ap?s essa reavalia??o o protocolo foi novamente aplicado pelo mesmo per?odo, e ao final (ap?s dez semanas) foi realizada nova avalia??o para verifica??o da efetividade do Programa. Resultados: de acordo com os dados iniciais da avalia??o postural, identificou-se que 65% das 26 participantes do sexo feminino e 35% dos 14 do sexo masculino possu?am alguma altera??o postural antes de iniciarem o programa. Observou-se, tamb?m, que 57% dos idosos possu?am problema osteoarticular. A an?lise das fotografias revelou que os idosos, frente ao computador, adotavam uma postura com indicativos de presen?a de postura hipercif?tica. N?o foram observadas altera??es estatisticamente significativas nos movimentos de flex?o, extens?o, flex?o lateral direita, rota??o ? direita e rota??o ? esquerda da coluna cervical. Em rela??o ?s queixas f?sicas avaliadas n?o houve altera??es ap?s aplica??o do Programa nas duas fases. Conclus?o: a) a aplica??o do Programa Ergon?mico n?o foi efetiva para aumento de amplitude dos movimentos da coluna cervical dos participantes; b) o Programa foi significativamente efetivo em rela??o ao movimento de flex?o lateral esquerda para as representantes do sexo feminino nas fases I e II de aplica??o; c) a aus?ncia de ajuste do encosto da cadeira pode ter influenciado nas posturas funcionais adotadas pelos participantes. Portanto, neste t?pico o ambiente influenciou a postura frente ao computador; d) a maioria dos integrantes do sexo feminino (65% das 26 integrantes) e do masculino (35% dos 14 integrantes) possui lordose. Esta pode ter sido decorrente da postura hipercif?tica adotada frente ao computador, o que pode ter levado ao aparecimento de queixas dolorosas identificadas; e) embora n?o tenham sido identificadas mudan?as na postura dos participantes, o presente estudo p?de delinear um desenho cl?nico da postura do idoso usu?rio do computador, e n?o houve agravamento dos problemas identificados no in?cio do estudo.
316

Metodologia de minera??o de dados para detec??o de desvio de comportamento do uso de energia em concession?ria de energia el?trica

Minussi, Marlon Mendes 31 January 2008 (has links)
Made available in DSpace on 2015-04-14T13:56:11Z (GMT). No. of bitstreams: 1 405417.pdf: 1389351 bytes, checksum: 6f00a0ed9add46a5b7f8106681a81fdd (MD5) Previous issue date: 2008-01-31 / Com abertura do mercado de energia el?trica e o aumento da competitividade no setor el?trico brasileiro, as concession?rias de energia buscam ferramentas para minimizar as perdas comerciais e maximizar seus lucros. Visando solucionar este problema foi desenvolvido um m?todo de minera??o de dados para detec??o de desvio de comportamento no uso de energia em concession?ria de energia el?trica. Pois quanto menos perde-se, menos precisa ser gerado, e menos se desperdi?a recursos naturais. Na elabora??o do m?todo compreendeu etapas de an?lise e avalia??o dos dados, assim como constru??o de um Data Warehouse mais adequado para o desenvolvimento deste trabalho. Foram analisadas curvas de cargas dos clientes e atrav?s dessa an?lise observou-se o perfil de consumo dos mesmos, embasados na an?lise foram aplicados os algoritmos de minera??o de dados, como o algoritmo de associa??o Apriori para fornecer padr?es de indicadores de perfil dos consumidores bem como os algoritmos de ?rvore de Decis?o e Classificadores Bayesianos. Os resultados validam o m?todo desenvolvido e implementado permitindo sua utiliza??o em uma concession?ria de energia el?trica sendo utilizado como mais uma ferramenta de GLD para auxiliar e somar-se a a??es j? existentes na concession?ria.
317

Plataforma para inje??o de falhas em System-on-Chip (SOC)

Dias, Marcelo Mallmann 31 August 2009 (has links)
Made available in DSpace on 2015-04-14T13:56:21Z (GMT). No. of bitstreams: 1 434259.pdf: 861644 bytes, checksum: a1d7d01d86f05de127324b3bd5e5c832 (MD5) Previous issue date: 2009-08-31 / O aumento do n?mero de sistemas computacionais embarcados sendo utilizados em diversos segmentos de nossa sociedade, de simples bens de consumo at? aplica??es cr?ticas, intensificou o desenvolvimento de novas metodologias de teste e t?cnicas de toler?ncia a falhas capazes de garantir o grau de confiabilidade esperado os mesmos. A inje??o de falhas representa uma solu??o extremamente eficaz de avaliar metodologias de teste e t?cnicas de toler?ncia a falhas presentes em circuitos integrados complexos, tais como Systems-on-Chip (SoCs). Este trabalho prop?e uma nova plataforma de inje??o de falhas que combina conceitos relacionados a t?cnicas de inje??o de falhas baseadas em hardware e em simula??o. Esta nova plataforma proposta ? capaz de injetar diferentes tipos de falhas nos barramentos presentes em diversos componentes funcionais de um SoC descrito em VHDL. O uso de sabotadores controlados por um gerenciador de inje??o de falhas instanciado no mesmo FPGA que o sistema a ser avaliado ? capaz de prover uma alta controlabilidade aliada a baixa intrusividade e uma grande gama de modelos de falhas. Al?m disso, ? importante salientar que a plataforma proposta representa uma solu??o f?cil no que diz respeito ? configura??o e automa??o de experimentos de inje??o de falhas.
318

Modelo de minera??o de dados para classifica??o de clientes em telecomunica??o

Petermann, Rafael Jordan 30 October 2006 (has links)
Made available in DSpace on 2015-04-14T13:56:24Z (GMT). No. of bitstreams: 1 388093.pdf: 2571421 bytes, checksum: 24dba4cbf5ab13c6a005e3d642b95d63 (MD5) Previous issue date: 2006-10-30 / O objetivo desta disserta??o ? desenvolver um modelo completo de minera??o de dados no ambiente de uma opera??o de telecomunica??es, com foco na reten??o de clientes usu?rios do STFC ( Servi?o Telef?nico Fixo Comutado). Atualmente, a manuten??o da base de clientes ? ponto crucial para a atua??o das operadoras de telecomunica??es no pa?s. Com o surgimento de novas tecnologias de comunica??o e com a populariza??o de acessos de banda larga e do SMP (Servi?o M?vel Pessoal), as taxas de cancelamentos dos acessos de STFC exigem das operadoras que oferecem o servi?o um processo consistente visando ? reten??o de sua planta f?sica instalada e da receita gerada. Atrav?s da constru??o de um modelo de minera??o de dados, formou-se um sistema visando ? predi??o de eventos e a classifica??o de clientes. O evento a ser previsto ? o churn (cancelamento do servi?o), com base na utiliza??o de algoritmos classificadores aplicados sobre uma base de dados real, contendo informa??es cadastrais, de relacionamento com o fornecedor, de consumo e faturamento. A forma??o do modelo de minera??o de dados envolveu as etapas de an?lise do problema (churn), avalia??o e entendimento dos dados, pr?-processamento e classifica??o. Como algoritmos classificadores (utilizados na predi??o), foram estudados e utilizados tr?s m?todos: redes Neurais RBF ( Radial Basis Function), ?rvores de Decis?o e Classificadores Bayesianos. Os resultados obtidos validam o modelo desenvolvido, permitindo a sua utiliza??o e aperfei?oamento no ambiente de uma operadora de telecomunica??es ou ainda como um modelo gen?rico de minera??o de dados, pass?vel de aplica??o em diferentes segmentos envolvendo o problema da reten??o e fideliza??o de clientes
319

Detec??o de defeitos do tipo Resistive-Open em SRAM com o uso de l?gica comparadora de vizinhan?a

Lavratti, Felipe de Andrade Neves 30 March 2012 (has links)
Made available in DSpace on 2015-04-14T13:56:25Z (GMT). No. of bitstreams: 1 443096.pdf: 6133830 bytes, checksum: 908c7fe6bab5b7e729af71ec9803c982 (MD5) Previous issue date: 2012-03-30 / The world we live today is very dependent of the technology advance and the Systemson- Chip (SoC) are one of the most important actors of this advance. As a consequence, the Moore's law has been outperformed due to this strong demand on the SoCs for growth, so that new silicon technologies has emerged along with new fault models that decreased the reliability of these devices. SoCs built using Very Deep Sub-Micron technology have a great number of interconnections, increasing the occurrence of Resistive-Open defects that occur on these interconnections up to the point where Resistive-Open defects have become the most important responsible for defective SoCs escaping the manufacturing tests. According to SIA Roadmap's projection, the area consumed by the SRAM on the SoC will be around 95% of the available area, knowing these memory have a great number of interconnections there is also a great probability of occurring Resistive-Open defects on the SRAM circuits which will compromise the overall SoC reliability. When found on SRAMs cells, these defects are able to cause dynamic and static functional faults according to its size, where static faults are sensitized by performing only one operation at the SRAM cell, while dynamic are sensitized by two or more operations. The most common manufacturing tests used to detect defective SoCs are today unable to detect dynamic faults caused by weak Resistive-Open defects. March test performs access on the memory with the intention of sensitizing the faults and detect them as consequence. Due to the higher number of operations necessary to sensitize dynamics faults, this test is not able to detect them properly. Another test is the Iddq test, which is able to detect the presence of defects by monitoring the overall current consumption of a SoC while it's being excited by a known vector of data on its inputs. The consumed current is compared to thresholds or to another similar device that is being excited on the same way. Iddq test is not able to distinguish the variations on current caused by process variations or defects presence. There is an other type of test using On-Chip Current Sensors (OCCS) with March tests that performs current monitoring on the circuits of the SoC and compare them with a threshold in order to set a ag when the monitored current gets higher or lower than a con gured thresholds. Because the mentioned test uses threshold, it is not able to detect Resistive-Open defects that could happen in any node, with any size, in the SRAM cell performing any operation. In this scenario the current consumption could be higher or lower than the defectless current consumption of a cell, making impossible to detect defects using thresholds. By all that, the objective of this dissertation is to propose a defect detection technique able to overcome the three mentioned limitations of preview explained tests. For that, OCCS are along with March test, but a Neighborhood Comparator Logic (NCL) has been included with the objective to perform the detections itself, removing from the OCCS the mission of nding defects. Now the OCCS is only responsible in converting the monitored current consumption signal to a one bit PWM digital signal. In this form, no threshold will be required because the NCL will obtain the reference of the correct current consumption (behavior reference) within the SRAM circuits, by comparing the neighboring cells and adopting the most common behavior as the reference one, so that it will detect those cells that behave di erently from the reference as defective ones. The neighborhood's cells are excited in a parallel form by the test processor, which performs a March test algorithm. The NCL, the OCCS and the March test, together, compose the proposed Resistive-Open detection technique, which has been validated on this work. As result, the proposed technique has shown being able to detect all of the 10 million defective cells of a 1Gbit SRAM containing the hardest defect to detect (small ones). No defective cell has escaped the simulated test and there was only 294,890 good cells being wasted, which represents 0.029% of the simulated SRAM cells. All of that, by costing only the equivalent to the area of 56 SRAM cells per monitored column and a manufacturing test that performs 5 operations per line of the SRAM. / O mundo de hoje ? cada vez mais dependente dos avan?os tecnol?gicos sendo os sistemas em chip (SoC, do ingl?s System-on-Chip) um dos principais alicerces desse avan?o. Para tanto que a lei de Moore, que previu que a capacidade computacional dos SoCs dobraria a cada ano, j? foi ultrapassada. Devido a essa forte demanda por crescimento novas tecnologias surgiram e junto novos modelos de falhas passaram a afetar a con abilidade dos SoCs. Os SoCs produzidos nas tecnologias mais avan?adas (VDSM - Very Deep Sub-Micron), devido a sua alta integra??o de transistores em uma ?rea pequena, passaram a apresentar um grande n?mero de interconex?es fazendo com que os defeitos do tipo Resistive-Open, que ocorrem nessas interconex?es, se tornassem os maiores respons?veis por SoCs com defeitos escaparem os testes de manufaturas. Ainda, segundo proje??es da SIA Roadmap, a ?rea consumida pela SRAM ser? em torno de 95% da ?rea utilizada por um SoC. E sabendo que essas mem?rias possuem in?meras interconex?es, existe uma grande probabilidade de ocorrer defeitos do tipo Resistive-Open em seus circuitos. Esses defeitos s?o capazes de causar falhas funcionais do tipo est?ticas ou din?micas, de acordo com a sua intensidade. As falhas est?ticas s?o sensibilizadas com apenas uma opera??o e as din?micas necessitam de duas ou mais opera??es para que sejam sensibilizadas. Os testes de manufatura mais utilizados para aferir a sa?de dos SoCs durante o processo de manufatura s?o hoje ine cientes frente aos defeitos do tipo Resistive-Open. O mais comum deles ? o March Test, que efetua opera??es de escrita e leitura na mem?ria com o objetivo de sensibilizar falhas e por m detect?-las, entretanto ? ine ciente para detectar as falhas do tipo din?micas porque ? necess?rio efetuar mais opera??es que o tempo dispon?vel permite para que essas falhas sejam sensibilizadas. Outro teste utilizado durante a manufatura chama-se teste de corrente quiescente (teste de Iddq), este monitora a corrente consumida do SoC como um todo durante a inje??o de vetores nos sinais de entrada, o consumo de corrente do chip ? comparado com limiares ou outro chip id?ntico sob o mesmo teste para detectar defeitos, entretanto n?o ? poss?vel distinguir entre varia??es inseridas, nos sinais monitorados, pelos defeitos ou pelos corners, que s?o varia??es nas caracter?sticas dos transistores fruto do processo de manufatura. E, por m, o ?ltimo teste que ? apresentado ? uma mistura dos dois testes anteriores, utiliza sensores de correntes e algoritmos de opera??es como em March Test onde que o defeito ? detectado pelos sensores de corrente embutidos quando a corrente monitorada ultrapassa dado limiar, embora esse teste tenha condi??es de detectar defeitos que causam falhas din?micas e de n?o sofrerem in u?ncia dos corners, ele ? ine caz ao detectar defeitos do tipo Resistive-Open que possam ocorrer em qualquer local, com qualquer tamanho de imped?ncia em uma SRAM executando qualquer opera??o, porque os defeitos do tipo Resistive-Open ora aumentam o consumo de corrente e ora o diminui de acordo com essas tr?s caracter?sticas citadas. Compara??es por limiares n?o t?m condi??es de contornar esta di culdade. Com tudo isso, o objetivo desta disserta??o de mestrado ? propor uma t?cnica de detec ??o de defeitos que seja capaz de vencer as tr?s limita??es dos testes convencionais de manufatura apontadas. Para a tarefa, sensores de corrente s?o utilizados associadamente com March Test, entretanto com o acr?scimo de uma L?gica Comparadora de Vizinhan?a (LCV) que tomar? para si a fun??o de detectar defeitos, deixando os sensores apenas encarregados em transformar a corrente anal?gica em um sinal digital e que tem a capacidade de eliminar a necessidade do uso de limiares, junto com as demais limita??es apontadas. A LCV monitora o comportamento de uma vizinhan?a c?lulas e, comparando-os entre si, acusa aquela ou aquelas c?lulas que se comportarem diferentemente das suas vizinhas como defeituosas, desta maneira a refer?ncia de comportamento correto ? obtida da pr?- pria vizinhan?a durante a execu??o do teste de manufatura, eliminando a necessidade de conhecimento pr?vio do tipo de dist?rbio causado pelos defeitos do tipo Resistive-Open, trazendo facilidade na hora de projetar o sistema de detec??o de defeitos e adicionado o poder de detectar qualquer defeito que gere altera??es no sinal de corrente consumida das c?lulas da SRAM. Neste contexto, o sensor de corrente tem apenas a fun??o de gerar o sinal digital, que ? de 1 bit para cada sinal monitorado (V dd e Gnd) e modulado em largura de pulso (PWM), assim a LCV tamb?m tem sua complexidade diminu?da, pois ? constitu?da por apenas portas l?gicas. A LCV e os sensores de corrente s?o utilizados durante o teste de manufatura, as compara??es que ocorrem na vizinhan?a s?o efetuadas paralelamente nas c?lulas da mem ?ria, ent?o o teste de manufatura necessita efetuar opera??es de acesso para excitar semelhantemente todas as c?lulas que participam da mesma vizinhan?a. O March Test ? um teste que efetua opera??es desta natureza e, portanto, ? utilizado para controlar a execu??o do teste e recolher os dados proveniente da LCV, que cont?m o resultado da detec??o efetuada em cada vizinhan?a. A LCV, o sensor de corrente e o March Test juntos comp?em a t?cnica de detec??o de defeitos proposta nesta disserta??o, e foram validados quanto as suas fun??es para comprovar que operam como projetados. Por m, a t?cnica proposta se mostrou capaz de detectar as 10 milh?es de c?lulas defeituosas (com o defeito mais dif?cil de detectar que causa falha funcional din?mica) em uma SRAM de 1Gbit, sem deixar passar nenhuma c?lula defeituosa pelo teste de manufatura, junto a isso, 294.890 c?lulas boas foram desperdi?adas, isto-?, foram dadas como defeituosas enquanto n?o tinham defeitos, o que representa apenas 0,029% de desperd?cio. Tudo isso, ao custo de ?rea equivalente a ?rea consumida por 56 c?lulas de mem?ria, por coluna monitorada, e ao custo de um teste de manufatura que executa apenas 5 opera??es em cada linha da SRAM.
320

Plataforma para inje??o de ru?do eletromagn?tico conduzido em circuitos integrados

Prestes, Darcio Pinto 27 August 2010 (has links)
Made available in DSpace on 2015-04-14T13:56:26Z (GMT). No. of bitstreams: 1 444651.pdf: 12436643 bytes, checksum: 55eac64fc740807199185f2d82272612 (MD5) Previous issue date: 2010-08-27 / Nowadays, it is possible to observe a growing number of embedded systems in applications ranging from simple consumer to safety critical uses. To cope with the actual situation, new test methodologies, fault tolerance techniques, as well as new paradigms that are capable of guaranteeing the robustness and reliability of the systems, have been developed. Therefore, it can be said that robustness and reliability represent two of the most important challenges for the design of integrated circuits and systems. Further, it is important to highlight that the environment hostility where embedded systems can be found has significantly increased due to different types of interference caused by several kind of sources. In this context, Electromagnetic Interference (EMI), that can interfere or degrade the proper behavior of the circuit, represents one of the principal problems when aiming for reliable and robust embedded systems. Therefore, it is necessary to introduce design techniques directly aimed to achieve Electromagnetic Compatibility (EMC), thus eliminating or reducing the effects of EMI to acceptable levels. This work proposes a new hardware-based fault injection platform able to inject Power Supply Disturbances (PSD) into integrated circuits and systems according to the IEC 61000-4-29 normative. The developed platform can be used as a support mechanism during the development of PSD-tolerant embedded systems. Moreover, it is important to note that the new fault injection platform represents a viable and easy-to-configure alternative that can be used to evaluate the robustness and reliability of embedded systems. / O crescente n?mero de sistemas computacionais embarcados nos mais diversos segmentos de nossa sociedade, desde simples bens de consumo at? aplica??es cr?ticas, intensificou o desenvolvimento de novas metodologias de teste, de t?cnicas de toler?ncia a falhas, bem como de novos paradigmas de implementa??o, capazes de garantirem a confiabilidade e a robustez desejada para os mesmos. Assim, caracter?sticas como confiabilidade e robustez de circuitos integrados e sistemas representam dois dos mais importantes desafios no projeto dos mesmos. Sistemas computacionais embarcados encontram-se inseridos em ambientes cada vez mais hostis devido a diferentes tipos de interfer?ncia gerados pelas mais variadas fontes. Neste contexto, a interfer?ncia eletromagn?tica (Electromagnetic Interference - EMI) representa um dos mais cr?ticos problemas no que diz respeito a confiabilidade e robustez em circuitos integrados e sistemas, podendo comprometer ou degradar o funcionamento dos mesmos. Assim, para eliminar ou reduzir esses efeitos ? n?veis aceit?veis, ? necess?rio introduzir o uso de t?cnicas de projeto visando ? compatibilidade eletromagn?tica (Electromagnetic Compatibility - EMC). Este trabalho prop?e uma nova plataforma de inje??o de falhas baseada em hardware, capaz de injetar ru?do eletromagn?tico conduzido nas linhas de alimenta??o (Power Supply Disturbances PSD) de circuitos integrados e sistemas de acordo com a norma IEC 61000-4-29. Desta forma, a plataforma desenvolvida serve como mecanismo de suporte ao desenvolvimento de circuitos e sistemas tolerantes ao ru?do eletromagn?tico conduzido, representando uma alternativa vi?vel para a avalia??o da confiabilidade e robustez de sistemas embarcados.

Page generated in 0.0448 seconds