• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 17
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 17
  • 17
  • 6
  • 6
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estação meteorológica do CDTN: caracterização do sistema de aquisição de dados e tratamento das informações geradas entre 1966 e 2012 / Weather station of CDTN: characterization of data acquisition system and processing of information generated between 1996 and

Leonardo Soares de Souza 17 December 2013 (has links)
Nenhuma / The Weather Station (EMET) at the Center for Development of Nuclear Technology (CDTN), located in Belo Horizonte - Minas Gerais, was designed in the 80s in order to provide training to the operation of other stations that belonged to the former Nuclebrás staff. Subsequently contributed to provide local weather information, aimed at enabling processes and environmental licensing of nuclear installations CDTN. This EMET started its operation automatically in September 1996, a number of parameters investigated: temperature and humidity, atmospheric pressure, wind speed and direction, rainfall and global and net solar radiation. The investigations of these parameters are performed divided into three levels: 1.5 m, 10 m and 40 m above the ground. The set of information EMET has attracted many researchers, many of these mainly from Federal University of Minas Gerais (UFMG), the neighboring CDTN. This scenario highlights the importance of the quality of the data is ensured through a system of research data. This paper presents a study aiming to improve the quality of information EMET to contribute to the realization of studies of atmospheric dispersion of pollutants, for the evaluation of extreme weather events, and other applications outside the nuclear area. To do so, we elaborated a methodology for treatment of meteorological data based on experience with the operation of EMET / CDTN and techniques found in the existing literature. The main results, concerning the EMET / CDTN, is the description of the data acquisition system, a procedure for processing the data generated, the evaluation of the quality of the data generated between 1996 and 2012, the identification of extreme weather events occurred and selection of the best periods for contribution in studies of atmospheric dispersion. / A Estação Meteorológica (EMET) do Centro de Desenvolvimento da Tecnologia Nuclear (CDTN), localizado em Belo Horizonte Minas Gerais, foi concebida na década de 80 de forma a oferecer treinamento ao pessoal de operação de outras Estações que pertenciam à extinta Nuclebrás. Posteriormente, contribuiu para prover informações meteorológicas locais, visando a viabilização de processos de licenciamento ambiental e nuclear das instalações do CDTN. Esta EMET iniciou sua operação de forma automática em setembro de 1996, são diversos os parâmetros investigados: temperatura e umidade do ar, pressão atmosférica, direção e velocidade do vento, precipitação pluviométrica e radiação solar global e líquida. As investigações desses parâmetros são realizadas distribuídas em três níveis: 1,5 m, 10 m e 40 m do solo. O conjunto de informações da EMET tem atraído diversos pesquisadores, muitos destes provenientes principalmente da Universidade Federal de Minas Gerais (UFMG), vizinha ao CDTN. Este cenário evidencia a importância de que a qualidade dessas informações seja garantida por meio de um sistema de investigação de dados. Este trabalho apresenta o estudo realizado com o objetivo de melhorar a qualidade das informações da EMET de forma a contribuir para a realização de estudos de dispersão atmosférica de poluentes; para a avaliação de eventos meteorológicos extremos, além de outras aplicações fora do âmbito da área nuclear. Para tanto, elaborou-se uma metodologia de tratamento de dados meteorológicos baseada na experiência adquirida com a operação da EMET/CDTN e em técnicas encontradas na bibliografia existente. Os principais resultados apresentados, referentes à EMET/CDTN, são: a descrição do sistema de aquisição de dados; um procedimento para tratamento dos dados gerados; a avaliação da qualidade dos dados gerados entre 1996 e 2012; a identificação dos eventos extremos meteorológicos ocorridos e a seleção dos melhores períodos para contribuição em estudos de dispersão atmosférica.
2

Revisão pelos pares na aprendizagem de análise e projeto de sistemas

Nunes, Luiz Eduardo Perfeito January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Engenharia de Produção / Made available in DSpace on 2013-07-16T00:23:21Z (GMT). No. of bitstreams: 1 224882.pdf: 1431251 bytes, checksum: a9dacae13d5da1eab3aac96202cb12c1 (MD5) / Esta dissertação apresenta uma proposta de adaptação do método de revisão pelos pares (peer review) usada na avaliação de artigos científicos. O método está sustentado/orientado pela teoria da aprendizagem construtivista, apoiando-se na teoria do aprender fazendo, em que é necessária a participação do aluno em todas as fases da construção/desenvolvimento de um projeto computacional. Este ambiente necessita que os alunos pesquisem alem dos assuntos ministrados em sala, o seu problema/projeto em questão e o dos colegas. O processo inicia com trabalhos individuais e finaliza em trabalhos de grupo, exigindo dos alunos que argumentem, critiquem, participem, se comprometam, aceitem sugestões/criticas e convivam com divergências de opinião. O aluno convive em sala de aula num ambiente semelhante ao de trabalho profissional, onde as soluções não dependem só dele, mas sua participação poderá influenciar toda a equipe e as equipes parceiras. A metodologia foi desenvolvida para alunos da disciplina de Análise e Projeto de Sistemas de um curso de graduação, que desenvolvem como principal tarefa avaliativa um projeto computacional, portanto necessitado documentá-lo. Ela é dividida em 13 fases, 12 delas necessitam da participação direta dos alunos. A proposta possibilita que os alunos entrem em contato com a teoria e a prática, situação que utiliza os trabalhos executados pelos alunos como exemplos práticos, exigindo uma participação direta no acompanhamento e na aprovação dos projetos dos colegas, neste processo, os alunos constróem seus projetos, acompanham e avaliam os projetos dos colegas e executam o projeto desses colegas. Este novo ambiente vincula a teoria com a prática, permitindo ao aluno validar os conceitos apresentados, reinterpretá-los, refletir sobre os resultados, teorizar e generalizar, auxiliando-o na busca por resposta.
3

Método para análise de sistemas de conhecimento, inspirado no princípio da complementaridade de Niels Bohr

Selner, Claudiomir January 2006 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção / Made available in DSpace on 2012-10-22T07:15:25Z (GMT). No. of bitstreams: 1 228368.pdf: 2027487 bytes, checksum: f591897e7fe23c9b91a98d0a39ce9cfe (MD5) / O presente trabalho situa-se na área de abrangência da Teoria Geral dos Sistemas, em sua dimensão de identificação (sobre o que caracteriza os sistemas) e mais especificamente no tema da emergência dos sistemas (sobre como surgem os sistemas). A partir de estatísticas que demonstram que os principais problemas encontrados nos sistemas de informações são originados nos processos de análise dos sistemas psico-sociais que os incorporam, o trabalho demonstra a importância das teorias na determinação da forma como os analistas percebem a existência e o surgimento dos sistemas. Em última análise, o scopus do trabalho consiste em identificar se a partir do princípio teórico da complementaridade podem ser desenvolvidos métodos de análise para sistemas de conhecimento mais eficazes que os derivados do mecanicismo clássico, baseado no princípio da causalidade. Para atingir esse propósito, é feita uma descrição do significado das teorias e, estrito senso, dos princípios da causalidade e da complementaridade, precedida de uma revisão da Teoria Geral dos Sistemas e dos seus desdobramentos mais recentes. Na seqüência são analisados aspectos de alguns dos métodos de análise de sistemas disponíveis, apresentando uma alternativa ao conceito de "problema", que lhes é inerente, a partir da própria perspectiva da Teoria Geral dos Sistemas. O método utilizado na verificação da plausibilidade dos argumentos apresentados no desenvolvimento da teoria consistiu da análise de estudos de casos feitos por alunos de Análise de Sistemas do Centro de Ciências Tecnológicas da Universidade do Estado de Santa Catarina, chegando-se à conclusão de que realmente o princípio teórico da complementaridade desvenda possibilidades relevantes no desenvolvimento de "um novo olhar" sobre os sistemas psico-sociais.
4

Um sistema computacional para controle financeiro de empresas integrando a área contábil, administrativa e financeira

Angelo, Fábio Eduardo Vieira January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-20T09:30:54Z (GMT). No. of bitstreams: 1 189435.pdf: 2706299 bytes, checksum: 9c97fa01980c4107a05ba4b82af94c71 (MD5) / Neste trabalho apresenta-se a concepção, o desenvolvimento e a utilização da ferramenta FINANCIAL, um recurso computacional que permite o controle financeiro de empresas, a partir das necessidades atuais do mercado, respeitando normas contábeis e aprimorando mecanismos administrativos. A ferramenta FINANCIAL foi concebida
5

Kappa-PSO-ARTMAP Fuzzy: uma metodologia para detecção de intrusos baseado em seleção de atributos e otimização de parâmetros numa rede neural ARTMAP Fuzzy

Araujo, Nelcileno Virgilio de Souza [UNESP] 28 June 2013 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:30:50Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-06-28Bitstream added on 2014-06-13T21:01:22Z : No. of bitstreams: 1 araujo_nvs_dr_ilha.pdf: 898369 bytes, checksum: 972b4fcee45e49e9c9a251e6404dedde (MD5) / Nos últimos anos têm-se percebido um forte crescimento no uso da tecnologia sem fio 802.11 (Wireless Local Area Network - WLAN) e os mecanismos de segurança implementados pelas emendas IEEE 802.11i e IEEE 802.11w têm se mostrado pouco eficazes no combate a ataques contra a disponibilidade dos serviços da WLAN. Os sistemas detectores de intrusão surgem como uma forma de auxiliar as redes de computadores neste combate contra a indisponibilização dos serviços. Nesta tese é proposto um modelo de detecção de intrusos chamado Kappa-PSO-ARTMAP Fuzzy, onde primeiramente a base de dados original é pré-processada, por meio de uma técnica de seleção de atributos baseada em rede neural ARTMAP Fuzzy e coeficiente Kappa, para reduzir a quantidade de atributos, deixando apenas as características mais representativas. A seguir, aplica-se a técnica de otimização por enxame de partículas (particle optimization swarm – PSO) na seleção de um conjunto de critérios (parâmetro de escolha, parâmetro de vigilância do módulo ARTa, taxa de treinamento e acréscimo do parâmetro de vigilância do módulo ARTa) empregados no treinamento do classificador de ataques, de forma a maximizar a identificação correta de amostras classificadas. O algoritmo de detecção de intrusos empregado no classificador de ataques é a rede neural ARTMAP Fuzzy. O desempenho desta nova estratégia é avaliado sobre três bases de dados coletadas respectivamente de uma rede simulada cabeada, uma rede infraestruturada sem fio com criptografia WEP (Wired Equivalent Privacy) e WPA (WiFi Protected Access) habilitadas e uma rede infraestruturada sem fio com criptografia WPA2 (WiFi Protected Access version 2) habilitada. Os resultados obtidos na avaliação da metodologia Kappa-PSO-ARTMAP Fuzzy demonstram a diminuição... / In the last years have seen a strong increase in the 802.11 wireless local area network (WLAN) technologies use, and the security mechanisms implemented by amendments IEEE 802.11i and IEEE 802.11w have proven not very effective in combating attacks against availability of WLAN services. Intrusion detection systems emerge as a way to help computer networks in this combat against the deny of services. In this thesis it's proposed a model of intrusion detection called Kappa-PSO-Fuzzy ARTMAP, where initially the original database is pre-processed through a feature selection technique based on ARTMAP Fuzzy neural network and Kappa coefficient for reduce the amount of attributes, leaving only the most representative features. Then, apply the particle swarm optimization (PSO) technique in searching a set of criteria (choice parameter, ARTa module vigilance parameter, training rate and increase in the ARTa module vigilance paramater) employees in training attacks classifier, in order to maximize the accurate identification of classified samples. The intrusion detection algorithm used in the attacks classifier is the ARTMAP Fuzzy neural network. The performance of this new strategy is evaluated over three colleted databases respectively in a simulated wired network, infrastructured wireless network with WEP (Wired Equivalent Privacy) and WPA (WiFi Protected Access) encryption enabled and infrastructured wireless network with WPA2 (WiFi Protected Access version 2) encryption enabled. The obtained results in the Kappa-PSO-ARTMAP Fuzzy methodology demonstrate the IDS computational cost reduction without causing... (Complete abstract click electronic access below)
6

Técnica indutiva para obtenção de rastros entre artefatos de software

Santos, Raquel Nitsche dos 25 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2010 / Made available in DSpace on 2012-10-25T09:37:53Z (GMT). No. of bitstreams: 1 282046.pdf: 5141489 bytes, checksum: 1cd4ddc3736c3d412f862a9b9f1a665a (MD5) / A tarefa de manter a qualidade e consistência de artefatos ao longo de um projeto de software pode ser mais efetiva com a utilização do conceito de rastreabilidade. Porém, a criação de rastros consistentes ao longo de um projeto é uma tarefa tão complexa que muitas vezes é deixada de lado. Técnicas como a recuperação automática e a matriz de rastreabilidade apresentam limitações. Este trabalho propõe e avalia uma abordagem que consiste em permitir a criação de rastros de forma indutiva ao longo do desenvolvimento dos artefatos do projeto. Estudos com uma ferramenta CASE mostraram resultados animadores indicando que a técnica pode melhorar significativamente a produtividade. A produtividade é avaliada através do número de rastros corretamente criados pelo desenvolvedor, dentro de um mesmo limite de tempo, quando comparada a técnicas tradicionais.
7

Classificação de superfícies utilizando polinomial Mahalanobis e métricas de textura

Aguiar, Daniel Besen de January 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciências da Computação, Florianópolis, 2012. / Made available in DSpace on 2013-07-16T04:38:02Z (GMT). No. of bitstreams: 1 316873.pdf: 8884208 bytes, checksum: 7db4d74a66b5090e1c1b257226b7ec1b (MD5) / A classificacao temática em imagens aéreas ou de satélite é uma etapa de fundamental importância para a area de sensoriamento remoto. Ela tem como objetivo determinar a classe a que uma determinada superfície encontrada em uma imagem pertence. Várias técnicas de classificacao de imagens foram adaptadas para o domínio de sensoriamento remoto. Mesmo com os recentes avanços conseguidos na area de classificação, essas técnicas ainda não conseguem resultados similares aos obtidos por um observador humano. Um dos prováveis motivos é a capacidade de um operador humano utilizar uma gama variada de informacoes além da cor, sendo que entre essas informacoes adicionais se encontra as características de textura que uma determinada classe apresenta. Com o intuito de expandir o repertório de técnicas de classificação utilizadas na area de sensoriamento remoto se apresenta neste trabalho a utilização do classificador polinomial Mahalanobis juntamente com métricas locais de textura. Os resultados finais foram analisados pelos teste de acurácia obtendo taxas de acerto variando entre 80,0% e 99,0%. Esses resultados demostram a viabilidade do uso da técnica utilizada como classificador no domínio do sensoriamento remoto.<br> / Abstract : Image classification is a fundamental step in remote sensing applications. It has the objective to identify and quantify surface patterns for resource assessments. Several techniques are used for that purpose, and a common difficulty is dealing with discrimination of multidimensional non-linear nearby patterns. Several classical methods like fuzzy, neural networks (NN), suport vecor machine (SVN) etc. are being used for that purpose, but every one have restricted performance specially in the case of non-linear classification functions. A novel approach never used in that area with a great potential to improve performance is the non-linear Polynomial Mahalanobis (PM). In the present work it is presented a PM supervised method that allows marking of a specific pattern based on a combination of multidimensional pixel value and texture features. The method was tested on air photogrametric images to assess specific features or cases like forests, water and cultivated areas for the State of Paran´a, Brazil. The result analysis on the selected cases showed that the method presented a very good performance on classification allowing a better resource assessment.
8

Metodologia para análise de confiabilidade dinâmica

Sakurada, Eduardo Yuji January 2013 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Mecânica, Florianópolis, 2013 / Made available in DSpace on 2013-12-05T23:38:13Z (GMT). No. of bitstreams: 1 319561.pdf: 5006751 bytes, checksum: e80ade04d61d9c7a67bf39e4a6694732 (MD5) Previous issue date: 2013 / A análise de confiabilidade dinâmica é bastante recente e está sendo demandada para análise de confiabilidade em sistemas complexos, mas até o momento há poucas publicações no Brasil. As primeiras publicações fora do país iniciaram na década de 1980, mas foi na década de 1990 que o assunto ganhou mais volume. Por ser uma nova abordagem da confiabilidade, muitas análises são dependentes dos especialistas e os aplicativos criados estão vinculados aos sistemas para os quais foram desenvolvidos. Existem vários aspectos que caracterizam uma análise de confiabilidade dinâmica, tais como: análise instantânea da confiabilidade, taxa de falha com degradação, avaliação dos fatores humanos, avaliação do comportamento dinâmico das variáveis de processo, entre outros. Em princípio, a técnica permite modelar sistemas de maneira mais realista para os propósitos da análise de confiabilidade, risco e segurança. No entanto, por considerar uma quantidade maior de variáveis, interações entre sistemas, entre outros fatores, a análise de confiabilidade dinâmica exige uma maior quantidade de informações, modelagem mais complexa, maior custo de processamento computacional e tempo. Isso faz com que se dê preferência em trabalhar com a análise de confiabilidade estática (clássica). Todavia, tem-se observado ao longo da história, incidentes graves em sistemas como usinas nucleares, aeronaves, grandes embarcações, etc, que são sistemas complexos com grande potencial catastrófico. Portanto, não se satisfazem com a análise estática de confiabilidade, ou seja, para uma taxa de falha definida num tempo estabelecido. Por causa disso, a análise de confiabilidade dinâmica começou a ser incorporada dentro das metodologias para avaliação de risco e segurança, agregando mais informação para as análises. O presente trabalho apresenta uma proposta de metodologia para a análise de confiabilidade dinâmica, na qual são consideradas: o comportamento dinâmico do sistema devido às falhas\\ações de controle e atualização do modelo ao longo do tempo. Para isso, a metodologia se fundamenta no método de Monte Carlo e na modelagem a eventos discretos com comportamento semi-markoviano. Adicionalmente, são utilizados alguns métodos e técnicas para dar suporte como: Análise do modo de falha, efeitos e criticidade (FMECA), Análise de eventos por rede causal (CNEA), Diagramas de blocos para confiabilidade e Manutenção centrada em confiabilidade (MCC). Deseja-se com o uso da metodologia facilitar a análise de confiabilidade dinâmica de sistemas e, por consequência, obter modelos de confiabilidade mais próximos da realidade e atualizados. Foram feitas duas aplicações da metodologia: a primeira num problema clássico proposto no workshop organizado pela associação italiana 3ASI (Associazione degli Analisti dell?Ambiente, dell?Affidabilita? e della Sicurezza Industriale) em 2004, de análise de confiabilidade dinâmica; a segunda num "sistema real'' ? sistema hidráulico de governo de um navio petroleiro. <br>
9

Estratégias eficientes para identificação de falhas utilizando o diagnóstico baseado em comparações

Ziwich, Roverli Pereira January 2013 (has links)
Orientador: Prof. Dr. Elias Procópio Duarte Jr. / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Curso de Pós-Graduaçao em Informática. Defesa: Curitiba, 12/04/2013 / Bibliografia: fls. 126-148 / Resumo: O diagnóstico baseado em comparações e uma forma realista para detectar falhas em hardware, software, redes e sistemas distribuídos. O diagnostico se baseia na comparaçao de resultados de tarefas produzidos por pares de unidades para determinar quais sao as unidades falhas e sem-falha do sistema. Qualquer diferenca no resultado da comparacao indica que uma ou ambas as unidades estao falhas. O diagnostico completo do sistema e baseado no resultado de todas as comparações. Este trabalho apresenta um novo algoritmo de diagnostico para identificar falhas em sistemas de topologia arbitraria com base no modelo MM*. A complexidade do algoritmo proposto e O(t2AN) no pior caso para sistemas de N unidades, onde t denota o numero maximo permitido de unidades falhas e A e o grau da unidade de maior grau no sistema. Esta complexidade e significativamente menor que a dos outros algoritmos previamente publicados. Alem da especificacao do algoritmo e das provas de correcão, resultados obtidos atraves da execucao exaustiva de experimentos sao apresentados, mostrando o desempenho me dio do algoritmo para diferentes sistemas. Al em do novo algoritmo para sistemas de topologia arbitraria, este trabalho tambem apresenta duas outras solucoes para deteccão e combate a poluicao de conteudo, ou alteracoes nao autorizadas, em transmissões de mídia contínua ao vivo em redes P2P - a primeira e uma solucão centralizada e que realiza o diagnostico da poluicao na rede, e a segunda e uma solucao completamente distribuída e descentralizada que tem o objetivo de combater a propagacao da poluicao na rede. Ambas as solucoes utilizam o diagnostico baseado em comparacoes para detectar alterações no conteudo dos dados transmitidos. As soluções foram implementadas no Fireflies, um protocolo escalavel para redes overlay, e diversos experimentos atraves de simulacao foram conduzidos. Os resultados mostram que ambas as estrategias sao solucães viaveis para identificar e combater a poluiçcãao de conteudo em transmissãoes ao vivo e que adicionam baixa sobrecarga ao trafego da rede. Em particular a estrategia de combate a poluicao foi capaz de reduzir consideravelmente a poluicão de conteudo em diversas configurações, em varios casos chegando a elimina-la no decorrer das transmissoães. / Abstract: Comparison-based diagnosis is a practical approach to detect faults in hardware, software, and network-based systems. Diagnosis is based on the comparison of task outputs returned by pairs of system units in order to determine whether those units are faulty or fault-free. If the comparison results in a mismatch then one ore both units are faulty. System diagnosis is based on the complete set of all comparison results. This work introduces a novel diagnosis algorithm to identify faults in t-diagnosable systems of arbitrary topology under the MM* model. The complexity of the proposed algorithm is O(t2AN) in the worst case for systems with N units, where t denotes the maximum number of faulty units allowed and A corresponds to the maximum degree of a unit in the system. This complexity is significantly lower than those of previously published algorithms. Besides the algorithm specification and correctness proofs, exhaustive simulations results are presented, showing the typical performance of the algorithm for different systems. Moreover, this work also presents two different strategies to detect and fight content pollution in P2P live streaming transmissions - the first strategy is centralized and performs the diagnosis of content pollution in the network, and the second strategy is a completely distributed solution to combat the propagation of the pollution. Both strategies employ comparison-based diagnosis in order to detect any modification in the data transmitted. The solutions were also implemented in Fireflies, a scalable and fault-tolerant overlay network protocol, and a large number of simulation experiments were conduced. Results show that both strategies are feasible solutions to identify and fight content pollution in live streaming sessions and that they add low overhead in terms of network bandwidth usage. In particular, the solution proposed to combat content pollution was able to significantly reduce the pollution over the system in diverse network configurations - in many cases the solution nearly eliminated the pollution during the transmission.
10

O papel do diretor na administração escolar : ontem e hoje /

Arf, Fabiana Aparecida. January 2007 (has links)
Resumo: Este trabalho tem como objeto de estudo o papel do diretor de escola, com foco na década de 1970 e na atualidade, tendo como objetivo principal contrapor o papel atribuído ao mesmo nas duas épocas. Tem como ponto de partida o livro O papel do diretor na administração escolar, de Myrtes Alonso (1976). A autora desenvolveu um trabalho com alguns pressupostos básicos utilizando-se de um esquema teórico de referências bastante amplo que permitiu a análise da função administrativa, transpondo-a para a situação escolar. A partir do referido livro, são retomadas algumas teorias administrativas e identificado o papel do diretor de escola na década de 1970. Para contrapor os dados colhidos sobre o papel do diretor na Administração Escolar na referida década ao momento atual, são analisados alguns textos referentes à Administração Escolar contemporânea, enfatizando a teoria da Qualidade Total. São identificadas algumas características comuns entre a teoria dos sistemas abertos, considerada por Alonso (1976) a mais apropriada para o estudo das organizações escolares, e a teoria da Qualidade Total. O estudo é de natureza qualitativa e a metodologia utilizada é a Análise de Conteúdo. / Abstract: This thesis has as study object the school principal's role focusing the 70's and currently and the main objective is to compare the principal's role in both periods of time. The starting point is the book O papel do diretor na administração escolar, by Myrtes Alonso (1976). The author produced a piece of work with basic premises using a broad theoretical scheme of references that made it possible to analyze the administrative function, quoting it to school situation. From that book, some administrative theories are reviewed and the school principal's role in the 70's is identified. To analyze the data collected about school principal's role in school administration and to compare it to current days some texts of modern School Administration are analyzed, emphasizing Total Quality theory. Some common characteristics between Systems Theories, considered by Alonso (1976) the most appropriate to study school organizations, and Total Quality Theory are identified. The research is qualitative and the methodology used is Content Analysis. / Orientador: Lourdes Marcelino Machado / Coorientador: Graziela Zambão Abdian Maia / Banca: Anita Fávaro Martelli / Banca: Paschoal Quaglio / Mestre

Page generated in 0.0931 seconds