• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 246
  • 6
  • 6
  • 6
  • 6
  • 6
  • 3
  • 1
  • Tagged with
  • 250
  • 72
  • 52
  • 29
  • 22
  • 18
  • 18
  • 17
  • 16
  • 15
  • 14
  • 14
  • 14
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

A descrição arquivística e a recuperação da informação na proposta de um modelo conceitual de sistemas informatizados de gestão arquivística de documentos: um estudo em instituições de ensino superior / The archival description and information retrieval in the proposal of a conceptual model of computerized archival records management systems: a study in higher education institutions

Costa, Eliandro dos Santos [UNESP] 28 March 2018 (has links)
Submitted by ELIANDRO DOS SANTOS COSTA (eliandrocosta@gmail.com) on 2018-04-27T22:17:05Z No. of bitstreams: 1 COSTA-TESE_DOUTORADO-UNESP.pdf: 4233963 bytes, checksum: 55589a58597a8ef6921242acd2990587 (MD5) / Approved for entry into archive by Satie Tagara (satie@marilia.unesp.br) on 2018-05-02T13:50:30Z (GMT) No. of bitstreams: 1 costa_es_dr_mar.pdf: 4233963 bytes, checksum: 55589a58597a8ef6921242acd2990587 (MD5) / Made available in DSpace on 2018-05-02T13:50:30Z (GMT). No. of bitstreams: 1 costa_es_dr_mar.pdf: 4233963 bytes, checksum: 55589a58597a8ef6921242acd2990587 (MD5) Previous issue date: 2018-03-28 / Não recebi financiamento / Nesta pesquisa realizou-se uma investigação referente ao processo de desenvolvimento de sistemas informatizados de gestão arquivística de documentos de instituições de ensino superior, observando-se especificamente a função de descrição arquivística, o uso das normas de descrição arquivística e o uso de requisitos do e-Arq Brasil como eixo central da pesquisa em interação com a área de recuperação da informação. Optou-se, como estudo de caso, pelos sistemas informatizados adotados em duas (02) instituições de ensino superior, a Universidade Estadual de Londrina (UEL) e a Universidade Estadual Paulista “Júlio de Mesquita Filho” (UNESP). Como todas possuem seu próprio software, desenvolvido para o atendimento das demandas diárias de trabalho relacionadas às suas atividades fim e meio, escolhe-se uma funcionalidade de cadastro e acompanhamento de disciplina no sistema, observando-se a visão do seu utilizador. Como recursos metodológicos, adotam-se pesquisa bibliográfica e documental, natureza exploratória, descritiva e explicativa, com abordagem qualitativa, realizando-se assim um estudo de caso buscando as evidências da documentação, da observação direta e da observação participante, e seguindo um roteiro pré-definido. Os resultados apresentam o atendimento de determinados funcionalidades essenciais de cada software, de acordo com um conjunto de requisitos determinado a partir do e-Arq Brasil, em acordo com a natureza e tipo de tecnologia de automação e com os preceitos da recuperação da informação e da descrição arquivística e demais princípios arquivísticos essenciais para SIGAD’s. Visa-se com esse procedimento não só contribuir para o cumprimento da experiência de usuário, mas também propor um modelo para sistema informatizado de gestão arquivística de documentos, mais próximo da realidade do usuário e do atendimento da demanda da organização. Também identifica-se, como ramo tanto de pesquisa como de atuação arquivística, o cenário de estudo de melhorias para SIGAD’s utilizando-se o conhecimento interdisciplinar de duas ciências, a da informação, por meio da Arquivística e recuperação da informação, e a da Ciência da Computação, por meio da engenharia de software, interação entre homem e computador e adoção da técnica de análise contextual de tarefas. Conclui-se que o arquivista como profissional da informação deve inteirar-se dos aspectos inovadores que envolvem as atividades das organizações no mercado atual, fortalecendo suas bases, aprimorando suas técnicas e produzindo pesquisas que possam acrescentar valor à sua formação e à sua qualificação para os desafios da sociedade moderna. / This research carried out an investigation regarding the process of development of computerized archival management systems for documents of higher education institutions, specifically observing the function of archival description, the use of the archival description standards and the use of requirements of the e -Arq Brazil as the central axis of the research in interaction with the information retrieval area. The computerized systems adopted in two (02) higher education institutions, the State University of Londrina (UEL) and the Universidade Estadual Paulista "Júlio de Mesquita Filho" (UNESP), were chosen as a case study. Since both of them have their own software, developed to meet the daily demands of work related to their core and non-core activities, a registration and monitoring of discipline in the system is chosen, observing the view of its user. As a methodological resource, it is adopted a bibliographic and documentary research, of an exploratory, descriptive and explanatory nature, with a qualitative approach, thus conducting a case study seeking evidence of documentation, direct observation and participant observation, following a pre-defined script. The results present the fulfillment of certain essential functionalities of each software, according to a set of requirements determined from e-Arq Brasil, the nature and type of automation technology and with the precepts of information retrieval and archival description and other archival principles essential to SIGAD's. This procedure aims not only to contribute to the fulfillment of the user experience, but also to propose a model for a computerized document management system, closer to the user's reality and to the organization's demand. It also identifies, as a branch of both research and archival activity, the scenario of study of improvements for SIGAD's using the interdisciplinary knowledge of two sciences, that of information, through archivology and information retrieval, and that of computer science, through software engineering, human-computer interaction, and the adoption of the contextual task analysis technique. It is concluded that the archivist as an information professional must know the innovative aspects that involve the activities of the organizations in the current market, strengthening his/her bases, improving his/her techniques and producing research that can add value to his/her training and his/her qualification for the challenges of modern society.
222

Metodologia para a captura, detecção e normalização de imagens faciais

Prodossimo, Flávio das Chagas 29 May 2013 (has links)
CAPES / O reconhecimento facial está se tornando uma tarefa comum com a evolução da tecnologia da informação. Este artefato pode ser utilizado na área de segurança, controlando acesso a lugares restritos, identificando pessoas que tenham cometido atos ilícitos, entre outros. Executar o reconhecimento facial é uma tarefa complexa e, para completar este processo, são implementadas etapas que compreendem: a captura de imagens faciais, a detecção de regiões de interesse, a normalização facial, a extração de características e o reconhecimento em si. Dentre estas, as três primeiras são tratadas neste trabalho, que tem como objetivo principal a normalização automática de faces. Tanto para a captura de imagens quanto para a normalização frontal existem normas internacionais que padronizam o procedimento de execução destas tarefas e que foram utilizadas neste trabalho. Além disto, algumas normas foram adaptadas para a construção de uma base de imagens faciais com o objetivo de auxiliar o processo de reconhecimento facial. Também foi criada uma nova metodologia para normalização de imagens faciais laterais, baseando-se nas normas da normalização frontal. Foram implementadas normalização semiautomática frontal, semiautomática lateral e automática lateral. Para a execução da normalização facial automática são necessários dois pontos de controle, os dois olhos, o que torna indispensável a execução da etapa de detecção de regiões de interesse. Neste trabalho, foram comparadas duas metodologias semelhantes para detecção. Primeiramente foi detectada uma região contendo ambos os olhos e, em seguida, dentro desta região, foram detectados cada um dos olhos de forma mais precisa. Para as duas metodologias foram utilizadas técnicas de processamento de imagens e reconhecimento de padrões. A primeira metodologia utiliza como filtro o Haar-Like Features em conjunto com a técnica de reconhecimento de padrões Adaptative Boosting. Sendo que as técnicas equivalentes no segundo algoritmo foram o Local Binary Pattern e o Support Vector Machines, respectivamente. Na segunda metodologia também foi utilizado um algoritmo de otimização de busca baseado em vizinhança, o Variable Neighborhood Search. Os estudos resultaram em uma base com 3726 imagens, mais uma base normalizada frontal com 966 imagens e uma normalizada lateral com 276 imagens. A detecção de olhos resultou, nos melhores testes, em aproximadamente 99% de precisão para a primeira metodologia e 95% para a segunda, sendo que em todos os testes a primeira foi o mais rápida. Com o desenvolvimento de trabalhos futuros pretende-se: tornar públicas as bases de imagens, melhorar a porcentagem de acerto e velocidade de processamento para todos os testes e melhorar a normalização, implementando a normalização de plano de fundo e também de iluminação. / With the evolution of information technology Facial recognition is becoming a common task. This artifact can be used in security, controlling access to restricted places and identifying persons, for example. Facial recognition is a complex task, and it's divided into some process, comprising: facial images capture, detection of regions of interest, facial normalization, feature extraction and recognition itself. Among these, the first three are treated in this work, which has as its main objective the automatic normalization of faces. For the capture of images and for the image normalization there are international standards that standardize the procedure for implementing these tasks and which were used in this work. In addition to following these rules, other standardizations have been developed to build a database of facial images in order to assist the process of face recognition. A new methodology for normalization of profile faces, based on the rules of frontal normalization. Some ways of normalization were implemented: frontal semiautomatic, lateral semiautomatic and automatic frontal. For the execution of frontal automatic normalization we need two points of interest, the two eyes, which makes it a necessary step to execute the detection regions of interest. In this work, we compared two similar methods for detecting. Where was first detected a region containing both eyes and then, within this region were detected each eye more accurately. For the two methodologies were used techniques of image processing and pattern recognition. The first method based on the Viola and Jones algorithm, the filter uses as Haar-like Features with the technique of pattern recognition Adaptive Boosting. Where the second algorithm equivalent techniques were Local Binary Pattern and Support Vector Machines, respectively. In the second algorithm was also used an optimization algorithm based on neighborhood search, the Variable Neighborhood Search. This studies resulted in a database with 3726 images, a frontal normalized database with 966 images and a database with face's profile normalized with 276 images. The eye detection resulted in better tests, about 99 % accuracy for the first method and 95 % for the second, and in all tests the first algorithm was the fastest. With the development of future work we have: make public the images database, improve the percentage of accuracy and processing speed for all tests and improve the normalization by implementing the normalization of the background and also lighting.
223

Metodologia para a captura, detecção e normalização de imagens faciais

Prodossimo, Flávio das Chagas 29 May 2013 (has links)
CAPES / O reconhecimento facial está se tornando uma tarefa comum com a evolução da tecnologia da informação. Este artefato pode ser utilizado na área de segurança, controlando acesso a lugares restritos, identificando pessoas que tenham cometido atos ilícitos, entre outros. Executar o reconhecimento facial é uma tarefa complexa e, para completar este processo, são implementadas etapas que compreendem: a captura de imagens faciais, a detecção de regiões de interesse, a normalização facial, a extração de características e o reconhecimento em si. Dentre estas, as três primeiras são tratadas neste trabalho, que tem como objetivo principal a normalização automática de faces. Tanto para a captura de imagens quanto para a normalização frontal existem normas internacionais que padronizam o procedimento de execução destas tarefas e que foram utilizadas neste trabalho. Além disto, algumas normas foram adaptadas para a construção de uma base de imagens faciais com o objetivo de auxiliar o processo de reconhecimento facial. Também foi criada uma nova metodologia para normalização de imagens faciais laterais, baseando-se nas normas da normalização frontal. Foram implementadas normalização semiautomática frontal, semiautomática lateral e automática lateral. Para a execução da normalização facial automática são necessários dois pontos de controle, os dois olhos, o que torna indispensável a execução da etapa de detecção de regiões de interesse. Neste trabalho, foram comparadas duas metodologias semelhantes para detecção. Primeiramente foi detectada uma região contendo ambos os olhos e, em seguida, dentro desta região, foram detectados cada um dos olhos de forma mais precisa. Para as duas metodologias foram utilizadas técnicas de processamento de imagens e reconhecimento de padrões. A primeira metodologia utiliza como filtro o Haar-Like Features em conjunto com a técnica de reconhecimento de padrões Adaptative Boosting. Sendo que as técnicas equivalentes no segundo algoritmo foram o Local Binary Pattern e o Support Vector Machines, respectivamente. Na segunda metodologia também foi utilizado um algoritmo de otimização de busca baseado em vizinhança, o Variable Neighborhood Search. Os estudos resultaram em uma base com 3726 imagens, mais uma base normalizada frontal com 966 imagens e uma normalizada lateral com 276 imagens. A detecção de olhos resultou, nos melhores testes, em aproximadamente 99% de precisão para a primeira metodologia e 95% para a segunda, sendo que em todos os testes a primeira foi o mais rápida. Com o desenvolvimento de trabalhos futuros pretende-se: tornar públicas as bases de imagens, melhorar a porcentagem de acerto e velocidade de processamento para todos os testes e melhorar a normalização, implementando a normalização de plano de fundo e também de iluminação. / With the evolution of information technology Facial recognition is becoming a common task. This artifact can be used in security, controlling access to restricted places and identifying persons, for example. Facial recognition is a complex task, and it's divided into some process, comprising: facial images capture, detection of regions of interest, facial normalization, feature extraction and recognition itself. Among these, the first three are treated in this work, which has as its main objective the automatic normalization of faces. For the capture of images and for the image normalization there are international standards that standardize the procedure for implementing these tasks and which were used in this work. In addition to following these rules, other standardizations have been developed to build a database of facial images in order to assist the process of face recognition. A new methodology for normalization of profile faces, based on the rules of frontal normalization. Some ways of normalization were implemented: frontal semiautomatic, lateral semiautomatic and automatic frontal. For the execution of frontal automatic normalization we need two points of interest, the two eyes, which makes it a necessary step to execute the detection regions of interest. In this work, we compared two similar methods for detecting. Where was first detected a region containing both eyes and then, within this region were detected each eye more accurately. For the two methodologies were used techniques of image processing and pattern recognition. The first method based on the Viola and Jones algorithm, the filter uses as Haar-like Features with the technique of pattern recognition Adaptive Boosting. Where the second algorithm equivalent techniques were Local Binary Pattern and Support Vector Machines, respectively. In the second algorithm was also used an optimization algorithm based on neighborhood search, the Variable Neighborhood Search. This studies resulted in a database with 3726 images, a frontal normalized database with 966 images and a database with face's profile normalized with 276 images. The eye detection resulted in better tests, about 99 % accuracy for the first method and 95 % for the second, and in all tests the first algorithm was the fastest. With the development of future work we have: make public the images database, improve the percentage of accuracy and processing speed for all tests and improve the normalization by implementing the normalization of the background and also lighting.
224

Uma contribuição ao método de síntese modal experimetal / A contribution for the experimental modal synthesis method

Junqueira, Manoel Moraes 08 December 2006 (has links)
The determination of the dynamic parameters of great or complex structures can be made using modal synthesis methods subdividing the complete structure in substructures. The employment of this method may be done by using analytical or experimental procedures. Generally speaking, poor eigenvalues and eigenvectors may be identified using experimental modal synthesis methods due to a normalization deficient process of the modal bases and to the low orthogonality condition of the identified bases. The contribution of this current work is about the improvement of the great or complex structures dynamic identification process by using the experimental modal synthesis method. The basis of this research methodology is the SMFR (Modal Synthesis with Residual Flexibilities) method and an identification of the physical matrices of the system by using the experimental FRF (Frequency Response Function), called ACS (Simultaneous Curve Fitting) method. These matrices contribute to the improvement of the orthogonality conditions and normalization of the experimental modal bases. Simultaneously, two new methods (CSME and CSMF) for the automatic choice of the used substructures modal bases in the modal synthesis process have been developed. The validation procedures of these methodologies were developed by using examples of numerical simulation and experimental models. Using CSMF method, it was possible to improve the modal choice process, automatizing and minimizing the interference of the user in the modal synthesis method. In the case of experimental data with high level noise, the recommended is the iterative method. / A determinação dos parâmetros dinâmicos de estruturas grandes ou complexas pode ser feita utilizando métodos de síntese modal subdividindo a estrutura completa em subestruturas. A aplicação deste método pode ser feita utilizando formulações analítica ou experimental. Em geral, autovalores e autovetores imprecisos podem ser identificados utilizando métodos experimentais de síntese modal devido a um processo deficiente de normalização das bases modais e a condição de baixa ortogonalidade das bases identificadas. Este trabalho contribui para a melhoria do processo de identificação dinâmica de estruturas grandes ou complexas utilizando o método síntese modal experimental. A formulação utiliza como base o método SMFR (Síntese Modal com Flexibilidades Residuais) e um método de identificação das matrizes físicas do sistema usando as FRF (Função de Resposta em Freqüência) experimentais, denominado método ACS. Através dessas matrizes é possível melhorar as condições de ortogonalidade e de normalização das bases modais experimentais. Paralelamente, foram desenvolvidos dois novos métodos (CSME e CSMF) para a escolha automática das bases modais das subestruturas usadas no processo de síntese modal. As metodologias foram validadas através de exemplos de simulação numérica e modelos experimentais. Utilizando o método CSMF foi possível melhorar o processo de escolha modal, automatizando e minimizando a interferência do usuário no método de síntese modal. Através das metodologias analisadas para melhorar o processo de síntese modal experimental, recomenda-se utilizar o método iterativo quando forem utilizados dados experimentais com alto nível de ruído. / Doutor em Engenharia Mecânica
225

Investigación de la vibración de cuerpo entero en una planta industrial : una comprobación acerca de la comodidad y la salud

Osores, Nila January 2017 (has links)
Há uma percepção de que as vibrações geradas pelo equipamento na área da preparação de madeira de uma instalação industrial são crescentes desde o início da operação. Devido ao fato de que as vibrações podem afetar tanto o corpo humano e edifícios estas começaram a se tornar uma preocupação para os trabalhadores expostos. Uma revisão das principais regras e procedimentos para avaliar a vibração aos quais está exposto o corpo humano e avaliar se isso afeta o seu conforto ou afetar a sua saúde é feita neste trabalho. Através deste estudo busca-se terminar o grau de exposição existente, para a qual seguem-se os procedimentos da ISO 2631 e BS 6472, 2008. Uma vez que estes valores são medidos, o grau de exposição dos trabalhadores é determinado de acordo com as regras existentes, verificando se há um risco para a saúde e se são necessárias ações para reduzir o nível de vibração recebido por eles. No Uruguai não existe uma norma afirmando os limites de vibração aceitáveis e assim os limites da Directiva 2002/44 /EC, ISO 2631, 1997, e BS 6472, 2008, serão tomadas neste estudo. Os valores de aceleração rms obtidos nas medições encontram-se num intervalo entre 0,028 m/s² e 0,9213 m/s², sendo a maioria delas muito inferiores aos propostos pelas normas anteriores para os valores limites de que venham afetar o conforto ou saúde das pessoas. No entanto, dependendo do tempo de exposição, alguns dos locais apresentam níveis de vibração que são considerados problemáticos. / There is a perception that vibrations generated by machines in a wood preparation facility are have been growing since the start of operations. Because vibration may affect not only the human body but also surroundings buildings, this became an issue and concern to the workers in the facility that are exposed of such vibrations. A review of the existing main standards and procedures to evaluate human vibration exposure is performed and conclude if this affects health and comfort on the human body in some workplaces at the facility. Through this experimental study the existing exposure magnitude is determined following ISO 2631, 1997, and BS 6472, 2008, standard procedure specifications. Once the surveyed values are measured, following the existing standards this allows to determine the degree of exposure of workers, if there is health risk and if actions are necessary to mitigate the levels. In Uruguay there is no standard indicating the threshold values for vibration exposure. Therefore, this will be the reason of the present study using Directive 2002/44/EC, ISO 2631, 1997, y BS 6472, 2008, threshold limit values. The rms acceleration values obtained in the measurements were in a range between 0.028 m/s² and 0.9213 m/s², most of them being well below the values proposed by the standards mentioned for the limits of affectation to the comfort or health of people. However, depending on the exposure time, some of the sites present vibration levels considered uncomfortable. / Existe la percepción de que las vibraciones generadas por los equipos en el área de Preparación de Madera de una planta industrial han ido creciendo desde el arranque de las operaciones. Debido al hecho de que las vibraciones pueden afectar tanto al cuerpo humano como a los edificios ha comenzado a ser un motivo de preocupación para los trabajadores expuestos. Se realiza una revisión de las principales normas y procedimientos existentes para evaluar la vibración a la que se exponen dichos trabajadores en determinados puestos de trabajo de la planta industrial y determinar si esta afecta su comodidad o afecta su salud. Mediante este estudio experimental se busca determinar el grado de exposición existente, por lo que se siguen los procedimientos de la Norma ISO 2631, 1997, y BS 6472, 2008. Una vez relevados estos valores, se determina siguiendo las normas existentes, el grado de exposición de los trabajadores, si existe riesgo para la salud y si son necesarias acciones para disminuir el nivel de vibración recibido por los mismos. En Uruguay no existe una norma que indique valores límite de exposición por lo que se utilizan en el presente estudio los límites de la Directiva 2002/44/EC, ISO 2631, 1997, y BS 6472, 2008. Los valores de aceleración rms obtenidos en las mediciones se encontraron en un rango entre 0,028 m/s² y 0,9213 m/s², estando la mayoría de ellos muy por debajo de los valores propuestos por las normas mencionadas para los límites de afectación a la comodidad o la salud de las personas. Sin embargo, dependiendo del tiempo de exposición, algunos de los sitios presentan niveles de vibración considerados incómodos.
226

Proposta de um método de ensaio para o controle de qualidade na produção de elementos estruturais de MLC e LVL / Proposal of a test method for quality control in the MLC and LVL structural elements production

Rodrigo de Souza Nogueira 11 April 2017 (has links)
Atualmente, as indústrias brasileiras recorrem a normas de outros países para o controle de qualidade para a caracterização de elementos estruturais feitos de Madeira Laminada Colada (MLC) e de LVL (Laminated Veneer Lumber) devido à ausência de especificações nacionais. Este trabalho teve como finalidade a verificação da adequação de alguns métodos de ensaios propostos nos projetos de norma ABNT NBR PN 02:126.10-001-3 e ABNT NBR PN 02:126.10-001-5 para determinar as propriedades dos elementos estruturais de madeira colada para o controle de qualidade da indústria produtora. Para tanto, foram obtidos das indústrias vários grupos de vigas de MLC e grupos de emendas dentadas produzidos com diversas combinações de madeiras e adesivos. Também, foram obtidos grupos de vigas de LVL na posição horizontal e grupos de vigas de LVL na posição de vertical. Foram realizados testes de flexão estática para determinação do módulo de ruptura e de elasticidade de todas as vigas. Além disso, das vigas foram retirados corpos de prova para realização dos ensaios de cisalhamento na linha de cola, delaminação e compressão paralela às fibras, enquanto as emendas dentadas foram analisadas pelo ensaio de tração paralela às fibras. Os procedimentos empregados podem ser considerados adequados para aplicação pelas indústrias no controle de qualidade da produção de elementos estruturais de MLC e de LVL. O ensaio de delaminação para adesivos expostos a ambientes externos, proposto no projeto de norma, pode ser analisado como prático e eficaz. Em relação aos testes de cisalhamento, o número de análises por amostra pode ser reduzido, desde que, priorize o ensaio na região central da seção transversal devido à maior concentração de tensões de cisalhamento. Como era esperado, as emendas dentadas formaram pontos de fragilidade, reduzindo a resistência de algumas vigas e tendo sua ruptura evidenciada por esforço de tração. No LVL, a posição vertical apresentou melhor resistência à flexão e ao cisalhamento do que a horizontal. O projeto de norma é apresentado em anexo nesse trabalho. / Nowadays, the Brazilian industries follow the foreign countries standard regulation to the quality control of characterization of structural elements produced from Glued Laminated Timber (glulam) and Laminated Veneer Lumber (LVL) due to the absence of national specifications. This work has the purpose of verifying the suggested methods of regulation projects, such as ABNT NBR PN 02:126.10-001-3 and ABNT NBR PN 02:126.10-001-5, to determine the properties of glued timber structural elements to quality control of producer industry. Therefore, glulam beams and fingerjoints groups, produced from several combinations of woods and adhesives, were obtained from industries. In addition, it was used flatwise LVL beams groups and edgewise LVL beams groups. It was made the static bending tests to determine strength and stiffness for each beam. Furthermore, from the beams it was extracted samples in order to test shear in the glue line, delamination and parallel grain compression whereas the fingerjoints were analysed by the parallel grain tensile test. The procedures taken on the experimental program can be considered suitable for industrial usage at quality control of production of structural elements from glulam and LVL. The delamination test for adhesive exposed to external environment, proposal in the new standard, can be analysed as practical and effective. In relation to the shear test, the number of analysis by sample can be reduced, whether prioritized the test in the central region of transversal section due to higher shear stress concentration. As expected, the fingerjoints formed fragile points, reducing strength for some beams and by presenting rupture when tensile stressed. In the LVL, the edgewise groups presented better bending and shear resistance than flatwise groups. The new test method is presented in annex in this dissertation.
227

A combinatorial study of soundness and normalization in n-graphs

ANDRADE, Laís Sousa de 29 July 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2017-04-24T14:03:12Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) dissertacao-mestrado.pdf: 2772669 bytes, checksum: 25b575026c012270168ca5a4c397d063 (MD5) / Made available in DSpace on 2017-04-24T14:03:12Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) dissertacao-mestrado.pdf: 2772669 bytes, checksum: 25b575026c012270168ca5a4c397d063 (MD5) Previous issue date: 2015-07-29 / CNPQ / N-Graphs is a multiple conclusion natural deduction with proofs as directed graphs, motivated by the idea of proofs as geometric objects and aimed towards the study of the geometry of Natural Deduction systems. Following that line of research, this work revisits the system under a purely combinatorial perspective, determining geometrical conditions on the graphs of proofs to explain its soundness criterion and proof growth during normalization. Applying recent developments in the fields of proof graphs, proof-nets and N-Graphs itself, we propose a linear time algorithm for proof verification of the full system, a result that can be related to proof-nets solutions from Murawski (2000) and Guerrini (2011), and a normalization procedure based on the notion of sub-N-Graphs, introduced by Carvalho, in 2014. We first present a new soundness criterion for meta-edges, along with the extension of Carvalho’s sequentization proof for the full system. For this criterion we define an algorithm for proof verification that uses a DFS-like search to find invalid cycles in a proof-graph. Since the soundness criterion in proof graphs is analogous to the proof-nets procedure, the algorithm can also be extended to check proofs in the multiplicative linear logic without units (MLL−) with linear time complexity. The new normalization proposed here combines a modified version of Alves’ (2009) original beta and permutative reductions with an adaptation of Carbone’s duplication operation on sub-N-Graphs. The procedure is simpler than the original one and works as an extension of both the normalization defined by Prawitz and the combinatorial study developed by Carbone, i.e. normal proofs enjoy the separation and subformula properties and have a structure that can represent how patterns lying in normal proofs can be recovered from the graph of the original proof with cuts. / N-Grafos é uma dedução natural de múltiplas conclusões onde provas são representadas como grafos direcionados, motivado pela idéia de provas como objetos geométricos e com o objetivo de estudar a geometria de sistemas de Dedução Natural. Seguindo esta linha de pesquisa, este trabalho revisita o sistema sob uma perpectiva puramente combinatorial, determinando condições geométricas nos grafos de prova para explicar seu critério de corretude e crescimento da prova durante a normalização. Aplicando desenvolvimentos recentes nos campos de grafos de prova, proof-nets e dos próprios N-Grafos, propomos um algoritmo linear para verificação de provas para o sistema completo, um resultado que pode ser comparado com soluções para roof-nets desenvolvidas por Murawski (2000) e Guerrini (2011), e um procedimento de normalização baseado na noção de sub-N-Grafos, introduzidas por Carvalho, em 2014. Apresentamos primeiramente um novo critério de corretude para meta-arestas, juntamente com a extensão para todo o sistema da prova da sequentização desenvolvida por Carvalho. Para este critério definimos um algoritmo para verificação de provas que utiliza uma busca parecida com a DFS (Busca em Profundidade) para encontrar ciclos inválidos em um grafo de prova. Como o critério de corretude para grafos de provas é análogo ao procedimento para proof-nets, o algoritmo pode também ser estendido para validar provas em Lógica Linear multiplicativa sem units (MLL−) com complexidade de tempo linear. A nova normalização proposta aqui combina uma versão modificada das reduções beta e permutativas originais de Alves com uma adaptação da operação de duplicação proposta por Carbone para ser aplicada a sub-N-Grafos. O procedimento é mais simples do que o original e funciona como uma extensão da normalização definida por Prawitz e do estudo combinatorial desenvolvido por Carbone, i.e. provas em forma normal desfrutam das propriedades da separação e subformula e possuem uma estrutura que pode representar como padrões existentes em provas na forma normal poderiam ser recuperados a partir do grafo da prova original com cortes.
228

Desenvolvimento de uma base geoquímica regional para metais traço em sedimentos superficiais da bacia hidrográfica do rio Sergipe

Silva, Aldair Ferreira 28 February 2012 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The Sergipe River Basin is one of the most important basins of the State of Sergipe. It drains 16.7% of the total area of the State and has a resident population of 56.6% of the total population, shared by 26 cities. The aim of this project is to determine and assess the distribution and toxicity of trace metals Co, Cr, Cu, Ni, Mn, Pb and Zn in surface sediments of the Sergipe River Basin. It was collected nineteen sediment samples in December 2010. The extraction methods used were efficient, with good agreement, without significant difference and a confidence level of 95%. The total concentration of metals from the surface sediments showed a wide variation of values. The strong correlations among iron, manganese and other trace metals indicate that iron and manganese in inorganic major carriers control the distribution of metals in sediments of the study area. The total concentration of the determined metals was normalized from iron. The P1 site showed enriched by Ni and Pb, Cr by the site P5, P2 and P6 sites by Co and Cu site by P13. The enrichment factor (EF = 3.45) and index geoaccumulation (Igeo = 1.20) indicated contamination only in the site P13. According to the geochemical normalization, the Enrichment factor and index of geoaccumulation, the concentrations of metals from sediment analyzed can be seen from natural sources, except for the sites P1, P5 and P13, and the lines of regression can be used to define the basis of regional geochemistry (BGR). The application of PCA and HCA or geochemical suggests characteristic mechanism similar to the enrichment sites P1-P3, P6, P9-P10 (Group I) and sites P4-P5, P7, P8, P11-P19 (Group II). The site P1-P3 and P9 showed higher concentration at least of one value of TEL and / or TEC for Cu and Ni. According to the ratio of potential adverse impact of sediment to biota, QPEL-SQA and SQA-QPEC the examined samples, in general, are not affected, except for sites P1-P3, P9, P10 and P13 (moderately impacted). / A bacia hidrográfica do rio Sergipe é uma das mais importantes bacias do Estado de Sergipe. Drena 16,7% da área total do estado e possui uma população residente de 56,6% do total de habitantes do mesmo, distribuídos em 26 municípios. Este trabalho teve como objetivo determinar e avaliar a distribuição e toxidade dos metais traço Co, Cr, Cu, Ni, Mn, Pb e Zn em sedimentos superficiais da bacia hidrográfica do rio Sergipe. Foram coletadas, em dezembro de 2010, dezenove amostras de sedimentos. Os métodos de extração utilizados se mostraram eficientes, com boa concordância, sem diferença significativa com um nível de confiança de 95 %. As concentrações totais dos metais dos sedimentos superficiais apresentaram uma grande faixa de variação de valores. As fortes correlações entre o ferro, o manganês e os demais metais traço, indicam ser o ferro e o manganês os principais carreadores inorgânicos no controle da distribuição dos metais nos sedimentos da área de estudo. As concentrações totais dos metais determinados foram normalizados a partir do ferro. O sítio P1 se mostrou enriquecido por Ni e Pb, o sítio P5 por Cr, os sítios P2 e P6 por Co e o sítio P13 por Cu. O fator de enriquecimento (FE=3,45) e o índice de geoacumulação (Igeo=1,20) indicaram contaminação apenas no sítio P13. De acordo com a normalização geoquímica, fator de enriquecimento e índice de geoacumulação, as concentrações dos metais dos sedimentos analisados podem ser consideradas de origem natural, exceto para os sítios P1, P5 e P13, e as linhas de regressão obtidas podem ser usadas para definir a base geoquímica regional (BGR). A aplicação da PCA e HCA sugere característica geoquímica ou mecanismo de enriquecimento semelhante para os sítios P1-P3, P6, P9-P10 (Grupo I) e para os sítios P4-P5, P7-P8, P11-P19 (Grupo II). O sítio P1-P3 e P9 apresentaram concentração superior pelo menos um valor de TEL e/ou TEC para Cu e Ni. De acordo com o quociente de potencial impacto adverso de sedimento à biota, QPEL-GQS e QPEC-GQS, as amostra analisadas, em geral não estão impactadas, com exceção dos sítios P1-P3, P9-P10 e P13 (moderadamente impactados).
229

Padronização de informação para um sistema de gerenciamento de equipamentos medico-hospitalares / Information standartization for a medical equipment maintenance management system

Eboli, Ana Cristina Bottura 19 August 2005 (has links)
Orientadores: Eduardo Tavares Costa, Jose Wilson Magalhães Bassani / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-11T02:44:56Z (GMT). No. of bitstreams: 1 Eboli_AnaCristinaBottura_M.pdf: 2516910 bytes, checksum: cbbe643a3e080230f8b6fe4b599c972e (MD5) Previous issue date: 2005 / Resumo: A padronização é uma importante ferramenta gerencial, sendo de grande importância na melhoria da qualidade do controle de serviços. Neste trabalho é tratada a padronização de informações em um sistema de gerenciamento de manutenção de equipamentos médico hospitalares. Descreve-se o sistema informatizado de gerenciamento atual do CEB-UNICAMP (chamado PEND), e um sistema integrado atualmente em desenvolvimento (SIGMA-EH) que deverá interligar informações de diversos núcleos de engenharia clínica em uma base de dados comum e robusta. A padronização aparece como base para possibilitar a conexão dos núcleos e é realizada de três formas: na abrangência do sistema, em sua estrutura e em suas informações. O sistema permitirá análises visuais rápidas antes mesmo do processamento dos dados. A padronização proposta foi implementada no protótipo do SIGMA-EH disponível no CEBUNICAMP. Espera-se ganhar em confiabilidade e melhoria da qualidade da informação para o gerenciamento da manutenção de forma eficaz, por meio da padronização por estados e trajetórias (usando como substrato uma máquina de estados finitos) e telas detalhadas com campos de preenchimento bem definidos e listas de seleção padronizadas. / Abstract: Standardization is an important management tool, being of great importance for the improvement of the quality control of many services. In this thesis it is shown the standardization of the information in the management of a health care equipment maintenance system. It is described the current computerized management system of CEB-UNICAMP (called PEND) and an integrated computerized system currently under development (SIGMA-EH) that shall link information from several clinical engineering services in a common and robust database. Standardization is the basis to allow centers connectivity and is carried out in three ways: system scope, its structure and centers information. The management system will allow quick visual analyses even before data processing. The proposed standardization has been implemented in the SIGMA-EH prototype available at CEB-UNICAMP. It is expected a gain on the system reliability and improvement on the quality of information for the efficacy of maintenance management for medical equipment through the standardization of states and trajectories (using the support of a finite states machine) and the use of screens with well defined filling fields and standardized selection lists. / Mestrado / Engenharia Biomedica / Mestre em Engenharia Elétrica
230

Higienizar, reabilitar e normalizar: a constituição da escola especial / Sanitize, rehabilitate and normalize: the creation of special school

QUADROS, Cristiane de 11 July 2011 (has links)
Made available in DSpace on 2014-07-29T15:13:39Z (GMT). No. of bitstreams: 1 Tese parte 1 Cristiane de Quadros.pdf: 1970356 bytes, checksum: 4154fefe0c5f4882ee568941b2e59c93 (MD5) Previous issue date: 2011-07-11 / The thesis here presented, linked to the research line Teacher Formation and Professionalization of the Postgraduate Program on Education at the Federal University of Goiás (UFG), in partnership with the Program of Academic Cooperation (Procad) and Doctorate Interinstitutional Program (Dinter) Procad/Capes/Dinter/UFT/UFG, has the aim to rescue the genesis and the historical meaning of disability. In other words, concerned to understand, from the madness history told by Foucault, the conception of disability stated/invented in the Modern Age and its implications in order to educate and legislate about disabled persons in Brazil. In this sense, highlight remnants from a certain culture from a certain file. Thus, the research seeks to mine in the fragmented history the special education not only the chronologic order of their development (dates and facts); is investigated by the archeology of its meaning, by discontinuities of its social structures. Therefore uses the sum of discourses about the madness, the abnormality/normality and the disability, which may offers us a history that helps to comprehend why and how the special school and the inclusion process, constituted as such nowadays. Furthermore, realize how the normality device is expressed in the special treatment as well in the way to legislate about disabled persons. It constitutes in a literature and documental research of a historical nature. Foucault is our main interlocutor in the discussions here presented, so that the author is used as a theoreticalmethodological reference in the research. The main consulted documents (LOPES, 1929), primary sources, correspond to the Archivos Brasileiros de Higiene Mental, belonging to the Liga Brasileira de Higiene Mental LBHM (Brazilian League for Mental Hygiene) (1925-1937), institution founded in Brazil by Gustavo Riedel in 1923. Other primary and secondary documents, from the Ministry of Education and why international recommendations were also consulted. The research allows to realize how the idea of being disabled or of being different was stated historic, social and culturally. The discussions about the processes of social exclusion/inclusion here shown set up the speeches that make present in the cultural context, educational and legal contemporaneous and underlie and constitute the institutional practices focused to the disabled or different persons. However, is verified that the concept of inclusion stated by the contemporaneity, notwithstanding that propose a new concept to comprehend the disabled remains to express, between the lines, the idea of standardization and control of the social body. / A tese ora apresentada, vinculada à linha de pesquisa Formação e Profissionalização Docente do Programa de Pós-Graduação em Educação da Universidade Federal de Goiás (UFG), em parceria com o Programa de Cooperação Acadêmica (Procad) e Programa de Doutorado Interinstitucional (Dinter) Procad/Capes/Dinter/UFT/UFG, tem o objetivo de resgatar a gênese e o sentido histórico da deficiência. Em outras palavras, preocupou-se em compreender, a partir da história da loucura contada por Foucault, a concepção de deficiência construída/inventada na Idade Moderna e quais suas implicações na forma de educar e legislar sobre o deficiente no Brasil. Neste sentido, salientar resquícios de uma dada cultura de um dado arquivo. Assim, a pesquisa busca garimpar na história fragmentada da educação especial não apenas a ordem cronológica do seu desenvolvimento (datas e fatos); é investigada pela arqueologia do seu significado, pelas descontinuidades das suas estruturas sociais. Utiliza, assim, a soma dos discursos percebidos sobre a loucura, a anormalidade/normalidade e a deficiência, que nos ofereça uma história que auxilie a compreender porque e como a escola especial e o movimento de inclusão, se constituíram como tal, na atualidade. Além disso, perceber como o dispositivo de normalidade se expressa no atendimento especializado e também na forma de legislar sobre o deficiente. Constitui-se em uma pesquisa bibliográfica e documental de cunho histórico. Foucault é nosso principal interlocutor nas discussões apresentadas, portanto o autor é utilizado como referencial teórico-metodológico da pesquisa. A principal fonte pesquisada (LOPES, 1929), fontes primárias, corresponde aos Archivos Brasileiros de Higiene Mental, pertencentes à Liga Brasileira de Higiene Mental LBHM (1925-1937), instituição fundada no Brasil por Gustavo Riedel em 1923. Outros documentos de fontes primárias e secundárias, do Ministério da Educação, a partir das recomendações internacionais, também foram consultados. A pesquisa permite perceber como a idéia do ser deficiente ou do ser diferente foi determinada histórica, social e culturalmente. As discussões sobre os processos de exclusão/inclusão social apresentadas no texto embasam os discursos que se fazem presentes no contexto cultural, educacional e legal contemporâneo e que fundamentam e constituem as práticas institucionais voltadas ao sujeito deficiente ou diferente. Entretanto, verifica-se que a concepção de inclusão inventada pela contemporaneidade, ainda que proponha uma nova proposta para a compreensão do deficiente, continua a expressar, nas entrelinhas, a idéia de normalização e de controle do corpo social.

Page generated in 0.1028 seconds