• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 215
  • 4
  • 3
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 232
  • 91
  • 61
  • 58
  • 44
  • 40
  • 37
  • 35
  • 31
  • 31
  • 26
  • 25
  • 24
  • 23
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Uso dos softwares construfig3d, poly, geogebra e sketchup nas aulas de geometria espacial / Use of construfig3d software, poly, and geogebra sketchup in spatial geometry classes

Marcelo Batista Pascoal Maia 29 July 2015 (has links)
Nesta dissertaÃÃo apresento possibilidades de estudo da geometria espacial atravÃs da criaÃÃo e visualizaÃÃo de figuras espaciais e seus elementos nos softwares construfig3D, poly, geogebra e sketchup. ApÃs uma breve apresentaÃÃo do uso de softwares em aulas de matemÃtica, inicio apresentando as ferramentas utilizadas nos softwares e suas possibilidades. Ambos possibilitam visualizar as figuras em trÃs dimensÃes. Para finalizar apresento diversas situaÃÃes envolvendo o uso dos softwares nas aulas de geometria espacial e os seguintes conceitos: Poliedros, RelaÃÃo de Euller, altura de pirÃmides, Diagonal do paralelepÃpedo, secÃÃes planas de um cubo, cilindros, cones, esferas, circunscriÃÃo e inscriÃÃo de figuras espaciais, planificaÃÃes e resoluÃÃo de problemas. / The present study aims to show possibilities concerning to spatial geometry through the creation and viewing of spatial figures and their elements in the softwares like construfig3D, poly, geogebra e sketchp. After a brief presentation of the use of softwares in spatial geometry classes, I introduce the tools used in the softwares e their possibilities. Both are able to look at the figures in three dimensions. In the end, I present several situations involving the use of the softwares and the following concepts: polyhedra, EullerÂs method, height of pyramids, parallelepipedÂs diagonal, flat sections of a cube, cylinders, cones, balls, circumscription and inscription of spatial figures, unfoldments and solving problems.
32

Avaliação comparativa do impacto do emprego de técnicas de programação defensiva na segurança de sistemas críticos. / Comparative evaluation of the impact of the use of defensive programming techniques on the safety of critical systems.

Jorge Martins Secall 26 February 2007 (has links)
Com o objetivo da redução do tempo de desenvolvimento de produtos comerciais, hardwares padronizados, como microcontroladores e microprocessadores dedicados, têm sido largamente empregados em aplicações críticas, transferindo para o software elementos até então de responsabilidade exclusiva do hardware. Técnicas de programação defensiva são mecanismos preventivos contra a ocorrência de falhas de hardware ou de software. Para a verificação da segurança de sistemas de aplicações críticas, técnicas de injeção de falhas foram desenvolvidas, propiciando o teste dos mecanismos de tolerância a falhas em condições muito semelhantes às do ambiente operacional real. A introdução de técnicas de programação defensiva aumenta a segurança dos sistemas de aplicações críticas. Não há, na literatura pesquisada, qualquer referência a uma avaliação quantitativa das técnicas de programação defensiva. Esta tese é a descrição de um trabalho experimental, que visa esta avaliação quantitativa, e se organiza em algumas etapas. Primeiro, algumas técnicas de programação defensiva são apresentadas, caracterizadas e eleitas como objeto de avaliação. A seguir, técnicas de injeção de falhas são descritas e uma delas é eleita como meio de teste do trabalho experimental. A partir daí, as técnicas de programação defensiva são verificadas sob o enfoque da técnica de injeção de falhas escolhida. O resultado é uma avaliação quantitativa relativa da eficácia de algumas técnicas de programação defensiva na capacidade de tolerância a falhas inseguras de sistemas de aplicações críticas. Ao final, indicações de continuidade do trabalho são apresentadas. O ambiente metroferroviário, em que trabalha o autor, foi utilizado como estudo de caso. Entretanto, as considerações e conclusões desta tese se aplicam a qualquer sistema de missão critica. / Aiming the reduction of commercial systems` time to the market, standardized hardware, as microcontrollers and embedded microprocessors, has been broadly employed for critical applications, transferring to the software issues that once exclusively relied on the hardware design. Defensive programming techniques are preventive engines against hardware and software faults. In order to verify the safety of critical application systems, fault injection techniques were developed, allowing for the testing of fault tolerant techniques under conditions quite close to actual operational environments. The introduction of defensive programming techniques increases the safety of critical application systems. There are no references, on a large research base, on quantitative evaluations of defensive programming techniques. This thesis describes an experimental work towards a relative quantitative evaluation, organized in a few stages. First, some defensive programming techniques are shown, characterized and selected as the evaluation target. Following, fault injection techniques are described and one of them is selected as the agent of the experimental work. From this point on, the defensive programming techniques are verified under the fault injection technique chosen. The result is a relative quantitative evaluation on the efficiency of some defensive programming techniques on the unsafe fault tolerance capacity of critical application systems. Finally, indications for further work are presented. The railway environment, where the author works, was employed as a case study. However, the reasoning and the conclusions of this thesis are applicable to any critical mission system.
33

Joint-e: um framework para avaliação de desempenho e escalabilidade de apis de persistência em ontologias / Joint-e: a framework to evaluate performance and scalability of ontology persistence apis

Soares, Endhe Elias 23 May 2014 (has links)
The Semantic Web (WS) is be coming an important research topic in Computer Science. One of reasons is the possibility of representing information in semantic way using ontologies, assisting in the building of applications which are able to use data, be coming more scalable and intelligent. As a result, many new applications have been developed using the Semantic Web technologies such as RDF, SPARQL and ontologies themselves. Although software development using these technologies is complicated and costly, the community of WS has been producing tools and APIs (application programming interface) to support programmers in the development of semantic applications. Among the most important APIs developed by the community are those that provide mechanisms for handling ontologies. Currently, there are two main approaches used by manipulation APIs: i) RDF triples and objet-oriented programming (OOP). On the one hand, using the RDF triples, the developers have to manipulate the ontologies using only triples, making the development process more complicated. On the other hand, the OOP APIs promote ontologies manipulation using object, which facilitates the development. Although several APIs are been developed in order to manipulate ontologies at object level, most of them are not being evaluated, especially when related to the quality of attributes, such as performance and scalability. Moreover, the high quantity and variability of APIs require a more generic approach in order to deal with these issues, be cause building an evaluation system for each API is a costly task and does not allow the reuse of the solution, neither of its modules. Therefore, this work presents an architecture-entered framework, named JOINT-Evaluator (JOINT-E), where the developers will be able to evaluate the APIs based on a set of pre-defined performance and scalability metrics. It is important to note that the framework also enables the analysis and comparison of the data with statistical support, in creasing the credibility and reliability of the results. To validate the work three scenarios were created on experiment. The main APIs (Alibaba and Jastor) used by developers were tested and evaluated. Furthermore, a qualitative analysis is presented, showing the statistical results and highlighting the advantages and disadvantages of each API. The results have showed that Jastor surpass Alibaba in many issues. Finally, a survey was applied to developers in order to validate the framework. This suvery have presented that this work attend a developers demand. / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A Web Semântica (WS) vem se tornando um importante tópico de pesquisa na Ciência da Computação. Uma das razões é a possibilidade de representar a informação de maneira semântica por meio de ontologias. Como consequência, inúmeras aplicações têm sido desenvolvidas utilizando as tecnologias da Web semântica, tais como, RDF, SPARQL e as próprias ontologias. Embora o desenvolvimento de software utilizando estas tecnologias seja complicado e custoso, a comunidade da WS vem produzindo ferramentas e APIs (application programming interface) para apoiar programadores no desenvolvimento de aplicações semânticas. Nesse cenário, existem atualmente duas principais abordagens utilizadas por essas APIs para manipulação de ontologias: triplas RDF e Programação Orientada a Objetos (POO). Por um lado, o uso de APIs para manipular triplas RDF permite que o desenvolvedor crie aplicações mapeando as propriedades das classes presentes nas triplas RDF em código utilizando uma linguagem de programação (e.g. Java). Por outro lado, existem as APIs para manipular ontologias utilizando o paradigma de orientação a objetivo. Isso permite que desenvolvedores continuem utilizando um paradigma já conhecido e largamente utilizado. Embora várias APIs tenham sido desenvolvidas para manipular ontologias no nível de objeto, a maioria não foi adequadamente avaliada, principalmente no que se refere aos atributos de qualidade de desempenho e escalabilidade. Além disso, a alta quantidade e a variabilidade das APIs faz com que seja necessário construir uma abordagem genérica que lide com essas questões, uma vez que construir um sistema de avaliação para cada API isoladamente é inviável. Dessa forma, este trabalho apresenta um framework centrado na arquitetura, chamado JOINT-E (Java Ontology Integration Toolkit-Evaluator), que permite a desenvolvedores avaliar as APIs para manipulação de ontologias. Para realizar esta avaliação foi objetivo deste trabalho definir um conjunto de métricas de desempenho e escalabilidade. Frisa-se que o framework e as métricas definidas possibilitam a análise e comparação das APIs com apoio estatístico, aumentando a credibilidade e confiabilidade dos resultados. Para validar os resultados obtidos foi proposto um experimento com três cenários usando as principais APIs (Alibaba e Jastor) utilizadas pela comunidade de desenvolvimento de aplicativos semântico. De acordo com este experimento a Jastor apresentou melhor performance em relação ao Alibaba levando em consideração as métricas propostas. Por fim, realizou-se também uma pesquisa de opinião com desenvolvedores para verificar se o framework JOINT-E oferece informações importantes para tomada de decisão referente a escolha de uma API. Os resultados desta pesquisa constaram que o framework oferece meios mais precisos para avaliação das APIs e atende a demanda dos desenvolvedores.
34

Proposta de um catálogo de padrões aplicados ao processo de elicitação de requisitos para software de gestão comercial. / Sem título em inglês.

Kleber Rocha de Oliveira 15 April 2009 (has links)
Esta pesquisa do campo da Engenharia de Software explora a aplicação do conceito de padrões no tratamento dos problemas da fase inicial da produção de software. Essa fase visa à compreensão do problema com objetivo de sugerir uma solução viável ao projeto. A área que estuda esses fenômenos é conhecida como Engenharia de Requisitos, e a fase que compreende o levantamento das necessidades dos usuários e dos sistemas denomina-se \"elicitação\". No desenvolvimento deste trabalho, é aplicada a pesquisa-ação como método de pesquisa. Foram selecionadas três empresas do ramo comercial em segmentos diferentes, através da técnica de observação e análise das atividades aplicadas na elicitação de requisitos, contidas no processo de construção de software nessas organizações. A abordagem teórica se limitou aos conceitos essenciais da Engenharia de Requisitos, com ênfase na fase de elicitação de requisitos, uma exploração sobre padrões, apresentando suas características e as diversas aplicações na padronização da solução geral para problemas complexos. Essencialmente, a pesquisa sugere um catálogo de padrões candidatos, aplicável ao processo de elicitação de requisitos. Cada padrão é extraído dos documentos de requisitos construídos com base em estudo de campo realizado. São organizados por tipo de requisitos e organizados em um gabarito proposto pelo pesquisador. Posteriormente, são relacionados de acordo com suas afinidades e preocupações, transformando-os dessa maneira em um catálogo de padrões devido a sua classificação e sumarização. Por fim, o pesquisador apresenta as conclusões e desenvolve as críticas acerca do catálogo de padrões, sugere melhorias, indica as limitações, e aponta as contribuições relativas à redução da complexidade na execução da atividade de elicitação de requisitos com a possibilidade de se antecipar ao problema que provavelmente o analista ou engenheiro de requisitos irá enfrentar. / This research in the Software Engineering field explores the application of the patterns concept in the treatment of initial phase problems in software production. This phase aims at understanding the problem with the objective of suggesting a viable solution to the project. The area that studies those phenomena is known as Requirements Engineering and the phase that comprehends the detection of users needs and the systems needs is called \"elicitation\". In the development of this work the research-action is applied as research method. Three commercial companies branch were selected in different segments, through the observation technique and analysis of applied activities in requirements elicitation, contained in construction process of software in these organizations. The theoretical approach was limited to essential concepts of Requirements Engineering with emphasis in the phase of requirements elicitation, an exploration on patterns, to show the characteristics and the several applications in patterns of general solution for complex problems. Essentially, the research suggests a pattern catalog, containing candidates for requirements elicitation process. Each pattern is extracted from requirements documents built based on field studies implemented. They are organized by requirements type in a format proposed by the researcher. Then, they are related to each other according to their similitarities and concerns, transforming them in a pattern catalog due to their classification and summarization. Finally, the researcher presents the conclusions and develops critics concerning the patterns catalog, suggesting improvements, establishing restrictions, as well as pointing out the relative contributions to the reduction of complexity in the execution of the requirements elicitation activity with possibility of anticipating problems that will be presumably be detected by the analyst or requirements engineer.
35

Caracterização de camadas de TiO2:Al2O3 por refletividade de raios-x / X-ray reflectivity characterization of TiO2:Al2O3 layers

Bazoni, Raniella Falchetto 19 February 2013 (has links)
Made available in DSpace on 2015-03-26T13:35:20Z (GMT). No. of bitstreams: 1 texto completo.pdf: 4132930 bytes, checksum: 1169203ed33a5e53252821abccd6cf81 (MD5) Previous issue date: 2013-02-19 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / In this work, ultra-thin layers of oxides grown using the technique of atomic layer deposition were characterized by measurements of x-ray reflectivity. TiO2:Al2O3 samples were grown using titanium isopropoxide (Ti(Hi-Pr)4), trimethylaluminum (Al(CH3)3) and water. The proportion of alumina was changed from 8 to 44% by varying the number of cycles of each precursor. TiO2:NiO samples were also grown using nickelocene (NiCp2) and water as precursors for NiO. The x-ray reflectivity measurements were performed at the Brazilian Synchrotron Light Laboratory and showed a reduction in deposition rate during growth of the TiO2:NiO series of samples, which prevented its use in the remainder of the study. The experimental data of TiO2:Al2O3 samples were analyzed using 03 simulation software: MOTOFIT, a free package designed to run on the IGOR Pro platform, and two MATHEMATICA codes; a first one based on kinematic approximation and another based in the Parrat recursion s method. The fitting procedure was based on two models: single layer, considering alumina as dopant, and multilayer, with sample composed of alternate layers of TiO2 and Al2O3. We conducted a detailed comparison of the results obtained from the softwares and models used and analyzed the influence of various parameters on the fits obtained. The fittings allowed the determination of various sample parameters, such as electron density and thickness of each layer and the roughness of the various interfaces. Comparing the software, we found that the best fits to the experimental data were obtained using the Parrat recursion s method. The multilayer model resulted in a better fit, reflecting the repetitive nature of the growth process, although the interface roughness values obtained were too large compared to layer thickness. Irrespective of software and the model used, the results show that atomic layer deposition can be used to obtain layers with controlled thickness and roughness less than 1 nm, independent of the number of cycles used in the deposition process. / Neste trabalho, camadas ultra-finas de óxidos, crescidas pela técnica de deposição por camada atômica, foram caracterizadas através de medidas de refletividade de raios-x. As amostras de TiO2:Al2O3 foram crescidas utilizando a técnica de deposição por camada atômica (ALD) usando como precursores isopropóxido de titânio (Ti(O-i-Pr)4), trimetilalumínio (Al(CH3)3) e água. A proporção de alumina foi modificada de 8 á 44%, variando a quantidade de ciclos de cada um dos precursores. Foram crescidas, também, amostras de TiO2:NiO, utilizando Niqueloceno (NiCp2) e água como precursores para NiO. As medidas de refletividade de raios-x foram realizadas nas instalações do Laboratório Nacional de Luz Síncrotron e mostraram uma redução na taxa de deposição durante o crescimento da série de amostras de TiO2:NiO, que impediu a sua utilização no restante do estudo. Os resultados experimentais das amostras de TiO2:Al2O3 foram analisados utilizando 03 softwares de simulação: MOTOFIT, um pacote livre desenvolvido para rodar na plataforma IGOR Pro, e dois códigos desenvolvidos para rodar na plataforma MATHEMATICA, o primeiro baseado na aproximação cinemática e o segundo no método de recursão de Parrat. Os ajustes das curvas experimentais foram feitos utilizando dois modelos: o de camada simples, considerando a alumina e o óxido de níquel como dopantes, e o de multicamada. Foi feita uma comparação detalhada entre os softwares e os modelos utilizados, analisando a influência dos vários parâmetros nos ajustes obtidos. Estes ajustes permitiram a determinação de diversos parâmetros característicos das amostras, tais como a espessura e a densidade eletrônica de cada camada e a rugosidade das várias interfaces. Na comparação entre os softwares, observou-se que o melhor ajuste aos dados experimentais foi obtido utilizando o método de recursão de Parrat. Em relação aos dois modelos utilizados, o de multicamada foi o que permitiu um melhor ajuste, refletindo a natureza repetitiva do processo de crescimento, apesar de fornecer valores de rugosidade das interfaces muito grande, comparados à espessura das camadas. Independente do software e do modelo utilizado, os ajustes permitem afirmar que a técnica de deposição por camada atômica permite a obtenção de camadas com espessura controlada e rugosidade menor que 1 nm, independente do número de ciclos utilizados na deposição.
36

Análise da qualidade e usabilidade dos softwares leitores de tela visando a acessibilidade tecnológica às pessoas com deficiência visual / Analysis of the quality and usability of software screen readers visiting technological accessibility to persons with visual deficiency

Campana, Anderson Rogério [UNESP] 20 April 2017 (has links)
Submitted by ANDERSON ROGÉRIO CAMPANA null (anderson.campana@gmail.com) on 2017-05-22T22:57:02Z No. of bitstreams: 1 ANÁLISE DA QUALIDADE E USABILIDADE DOS SOFTWARES LEITORES DE TELA VISANDO A ACESSIBILIDADE TECNOLÓGICA ÀS PESSOAS COM DEFICIÊNCIA VISUAL.pdf: 2875781 bytes, checksum: d5da350405e9e939d862738e19c7ded5 (MD5) / Rejected by Luiz Galeffi (luizgaleffi@gmail.com), reason: Solicitamos que realize uma nova submissão seguindo a orientação abaixo: O arquivo submetido está sem a ficha catalográfica. A versão submetida por você é considerada a versão final da dissertação/tese, portanto não poderá ocorrer qualquer alteração em seu conteúdo após a aprovação. Corrija esta informação e realize uma nova submissão com o arquivo correto. Agradecemos a compreensão. on 2017-05-23T17:44:43Z (GMT) / Submitted by ANDERSON ROGÉRIO CAMPANA null (anderson.campana@gmail.com) on 2017-05-25T15:12:16Z No. of bitstreams: 1 ANÁLISE DA QUALIDADE E USABILIDADE DOS SOFTWARES LEITORES DE TELA VISANDO A ACESSIBILIDADE TECNOLÓGICA ÀS PESSOAS COM DEFICIÊNCIA VISUAL.pdf: 2892714 bytes, checksum: 154719b0dcd0bcd8755b720f890dd812 (MD5) / Approved for entry into archive by LUIZA DE MENEZES ROMANETTO (luizamenezes@reitoria.unesp.br) on 2017-05-30T12:56:38Z (GMT) No. of bitstreams: 1 campana_ar_me_bauru.pdf: 2892714 bytes, checksum: 154719b0dcd0bcd8755b720f890dd812 (MD5) / Made available in DSpace on 2017-05-30T12:56:39Z (GMT). No. of bitstreams: 1 campana_ar_me_bauru.pdf: 2892714 bytes, checksum: 154719b0dcd0bcd8755b720f890dd812 (MD5) Previous issue date: 2017-04-20 / O deficiente visual é o público alvo da pesquisa, pois quando se fala em necessidades especiais, encontramos pessoas com as mais diversas precisões que carecem de alternativas de acesso as tecnologias em seu cotidiano. No decorrer deste trabalho tratamos sobre a deficiência visual, a legislação e demais dados pertinentes ao indivíduo com deficiência visual, que pode ser definido como pessoa que possui perda total ou parcial, congênita ou adquirida de sua visão. Abordamos quais tecnologias digitais estão disponíveis para inclusão dos deficientes visuais, momento em que foi sistematizada as análises sobre os softwares leitores de tela mais utilizados na atualidade por esse público alvo. Dando sequência, para possibilitar as análises da qualidade e usabilidade destes softwares, utilizamos as Normas NBR ISO/IEC 9128 e NBR ISO/IEC 14598 que regulamentam a questão de qualidade e usabilidade do produto de software. Posteriormente, com base nessas normas, foi então elaborado e aplicado um questionário para os deficientes visuais analisarem a qualidade e usabilidade dos softwares leitores de tela que eles utilizam no dia-a-dia. Com base nos resultados obtidos, elencamos sugestões para melhoria desses produtos, contribuições estas que poderão ser utilizadas por desenvolvedores para que cada dia mais se alcance a busca da efetiva acessibilidade para os deficientes visuais. / The visually impaired (a blind person) is the target of this research, because when we talk about special needs, we find people with the most diverse needs of alternatives to access the technologies in their daily lives. n the course of this work, we deal with a visual impairment, legislation and other data related to individuals with visual impairment, which can be defined as the person who has total or partial, congenital or acquired vision. We approached which digital technologies are available for the inclusion of the visually impaired, at the moment in which the analyzes on the software’s screen readers most used in the present time by this target audience. In order to make possible the analysis of the quality and usability of these software, we use the standards NBR ISO/IEC 9128 e NBR ISO/IEC 14598, which regulate the issue of quality and usability of the software product. Subsequently, based on these standards, a questionnaire was then prepared and applied for the visually impaired to analyze the quality and usability of the screen readers software that they use in their everyday life. Based on the results obtained, we list a couple suggestions for improvement of these products, and some contributions that can be used by developers so that each day more people can reach the search for effective accessibility for the visually impaired.
37

Digital technologies in Teaching Chemistry / Tecnologias digitais no ensino de quÃmica

Nilson Fonseca Miranda 04 September 2007 (has links)
CoordenaÃÃo de AperfeiÃoamento de Pessoal de NÃvel Superior / This work analyzes the speech of the Chemistry professors of Universidade Federal do Piauà about the use of digital technologies, educational sites and softwares, conceived as tools applied to the teaching of Chemistry. It also analyzes the usage of softwares in the classroom: Spartan; origin; organic Chemistry II and the sites: nautilus; chemkeys; ucs; qmc.ufsc and quark. The main goal is to verify how the use of such tools contribute pedagogically to the teaching/learning in the area of Chemistry. The theoretical contribution used supports that the digital technologies themselves donât stablish nor catalyze the changes on the pedagogical practice, but the way which it is conceived by the teacher and the way it is used at the teaching system, intensifies the development of successive innovations and later change in the posterior change in the educational paradigm. As for the development of this research a qualitative methodology was used in order to make the search of chemical knowledge possible bearing in mind that this production also comes from the exchange, the socialization, sometimes conflicting, that the different agents involved promote when theyâre facing and representing their realities, completing them with various definitions. In this sense, (a) the speech of the teachers obtained through interviews, (b) the data about educational sites and softwares used on the chemistry teaching obtained through a grid of analysis produced for this purpose have been analyzed. The result of the collected data analysis aims at some positive reasons that justify the use of digital technologies on the Chemistry teaching: quickness and efficiency in the obtainment of information; access to new acquirements and higher agility at learning. Besides, it makes the simulation through virtual experiments possible, gives the opportunity to teachers and students to acquire modern information and possibilities of access to new acquirements. / Este trabalho analisa o discurso dos professores de quÃmica da Universidade Federal do Piauà acerca do uso das tecnologias digitais, sites e softwares educativos, concebidas como ferramentas aplicadas ao ensino de quÃmica. Analisa tambÃm a forma de utilizaÃÃo na sala de aula dos softwares: spartan; origin; quÃmica orgÃnica II e dos sites: nautilus; chemkeys; ucs; qmc.ufsc e quark. O objetivo fundamental à verificar como o uso dessas ferramentas contribui pedagogicamente para o processo de ensino/aprendizagem na Ãrea da quÃmica. O aporte teÃrico utilizado sustenta que as tecnologias digitais por si sà nÃo estabelece, nem catalisa mudanÃas na prÃtica pedagÃgica, mas a forma como à concebida pelo professor e utilizada no sistema de ensino, potencializa a eclosÃo de sucessivas inovaÃÃes e posterior mudanÃa no paradigma educacional. Para o desenvolvimento desta pesquisa foi utilizada uma metodologia qualitativa a fim de possibilitar a busca do conhecimento quÃmico compreendendo que essa produÃÃo tambÃm se elabora na troca, na socializaÃÃo, Ãs vezes conflituosas, que os diferentes atores envolvidos promovem ao enfrentarem e representarem suas realidades, preenchendo-as de significaÃÃes diversas. Neste sentido, foram analisados: (a) o discurso dos professores obtido atravÃs de entrevista; (b) os dados sobre sites e softwares educativos utilizados no ensino de quÃmica obtidos atravÃs de uma grade de anÃlise produzida para esta finalidade. O resultado da anÃlise dos dados gerados aponta para algumas razÃes positivas que justificam a utilizaÃÃo das tecnologias digitais no ensino de quÃmica: rapidez e eficiÃncia na obtenÃÃo de informaÃÃes; acesso a novos conhecimentos e maior agilidade no aprendizado. AlÃm disso, possibilita fazer simulaÃÃo mediante experimentos virtuais, oportunizando professores e alunos a adquirirem informaÃÃes recentes e possibilidades de acesso a novos conhecimentos.
38

Desenvolvimento de software para a organização da informação de um serviço de saúde ocupacional hospitalar / Software Development for Data Processing in a Hospital Occupational Health Service

Maria Cláudia Parro 20 May 2008 (has links)
O propósito deste estudo foi desenvolver um software que possibilite a organização dos dados de acidente de trabalho com material biológico, caracterização epidemiológica e monitoramento da evolução clínica da população, visando o planejamento da assistência de enfermagem em Saúde Ocupacional. A equipe multiprofissional envolvida no desenvolvimento do software foi formada pela pesquisadora, por um analista de sistemas e por um programador. A metodologia empregada fundamentou-se no ciclo de vida de desenvolvimento de sistemas. Dividiu-se em duas fases: a fase de definição e a de desenvolvimento. A fase de definição teve início com a etapa de planejamento, seguida pela etapa de definição e pela análise dos requisitos necessários à construção, e foi concluída com a etapa de produção da especificação de requisitos do software. A fase de desenvolvimento traduziu o conjunto de requisitos em um modelo informatizado, estruturado em quatro módulos referentes à organização das informações, à caracterização epidemiológica e ao monitoramento da evolução clínica da população com vistas ao planejamento da assistência de enfermagem em Saúde Ocupacional. O módulo Cadastro de Funcionários armazena dados relativos à identificação pessoal, endereço, escolaridade, ocupação e situação no mercado de trabalho, de modo a organizar toda informação coletada. Os módulos Cadastro de Empresas Contratantes e Cadastro de Município proporcionam o cadastramento específico de cada empresa e município respectivamente, criando um banco de dados que facilita a caracterização epidemiológica. O módulo de Sistema de Informação de Agravos de Notificação armazena os dados referentes aos acidentes de trabalho com material biológico e, a partir destes, processa informações para auxiliar o enfermeiro na tomada de decisão. Proporciona o planejamento da assistência e o acompanhamento de enfermagem nos casos de acidente com material biológico até seu desfecho. Finalmente, a avaliação desse recurso inovador na área de Saúde Ocupacional Hospitalar será objeto de um estudo posterior. / The purpose of this study was to develop a software program to enable data processing of work-related accidents involving hazardous biological material, epidemiological characterization, and clinical evolution monitoring of the population, aiming at the Occupational Health Nursing Care planning. The multidisciplinary team was composed of the researcher, a systems analyst, and a systems programmer. The methodology used was based on the systems development lifecycle. The study was divided into two phases: definition and development. The definition phase has begun with planning phase, followed by definition phase and analysis of the critical requirements essential to the software construction. This stage was concluded with the production phase of the software requirements specification. The development phase translated the set of requirements into a computerized pattern, structured into 4 modules regarding the organization of information, epidemiological characterization, and clinical evolution monitoring of the population, aiming at the Occupational Health Nursing Care planning. The module \"Employee Records\"/\"Cadastro de Funcionários\" stores data related to personal identification, address, educational status, profession, and his/hers labor market situation so as to organize all the information gathered. The modules \"Contracting Company Records\"/\"Cadastro de Empresas Contratantes\" and \"County Record\"/\"Cadastro de Munícipio\" provide specific registration of each company and county, respectively, creating a database to facilitate the epidemiological characterization. The module \"National Disease Notification System-SINAN\"/\"Sistema de Informação de Agravos de Notificação-SINAN\" stores the data concerning work-related accidents involving hazardous biological material, processing information to serve nurses in the decision-making process. This module provides both assistance planning and nursing follow-up in accidents involving hazardous biological material until its outcome. Finally, the assessment of this groundbreaking resource in Hospital Occupational Health will be the subject of a further study.
39

Do mídia para a mídia: os estudos do software na formação acadêmica

Souza, Flávia Silva 22 May 2012 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-07-01T11:10:22Z No. of bitstreams: 1 flaviasilvasouza.pdf: 2593658 bytes, checksum: 3b56a95bdbd6d1977443c4e9142d007d (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-07-13T15:59:37Z (GMT) No. of bitstreams: 1 flaviasilvasouza.pdf: 2593658 bytes, checksum: 3b56a95bdbd6d1977443c4e9142d007d (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-07-13T15:59:46Z (GMT) No. of bitstreams: 1 flaviasilvasouza.pdf: 2593658 bytes, checksum: 3b56a95bdbd6d1977443c4e9142d007d (MD5) / Made available in DSpace on 2016-07-13T15:59:46Z (GMT). No. of bitstreams: 1 flaviasilvasouza.pdf: 2593658 bytes, checksum: 3b56a95bdbd6d1977443c4e9142d007d (MD5) Previous issue date: 2012-05-22 / Os Estudos dos Softwares se firmaram no começo dos anos 2000, quando Lev Manovich cunhou o termo e propôs estudar as tecnologias digitais sob o viés de um novo paradigma, pouco lembrado e estudado até aquela época: os softwares. São eles os responsáveis por tudo que envolve e é produzido na sociedade. Este trabalho propõe reflexões sobre a mídia depois do software, das suas técnicas e linguagens e, principalmente, de como as escolas de jornalismos estão incorporando esses conceitos e aplicando no ensino dos futuros jornalistas. / Softwares Studies was signed in early 2000, when Lev Manovich created the term. Furthermore he propose to study digital technology through a new paradigm, that nor received special attention yet. This paper reflects about the media after the software, its techniques and languages, and especially, how journalism schools are incorporating and applying these conceptsin teaching future journalists.
40

Proposta de um modelo de referência de processo para o desenvolvimento de produtos integrado com os sistemas generativos de projeto

Lima, Fernando Augusto Capuzzo de 26 April 2016 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-07-25T13:28:28Z No. of bitstreams: 1 fernandoaugustocapuzzodelima.pdf: 6152432 bytes, checksum: 3675029f4950888d8c5071bd7d5d4a44 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-07-25T16:34:17Z (GMT) No. of bitstreams: 1 fernandoaugustocapuzzodelima.pdf: 6152432 bytes, checksum: 3675029f4950888d8c5071bd7d5d4a44 (MD5) / Made available in DSpace on 2016-07-25T16:34:17Z (GMT). No. of bitstreams: 1 fernandoaugustocapuzzodelima.pdf: 6152432 bytes, checksum: 3675029f4950888d8c5071bd7d5d4a44 (MD5) Previous issue date: 2016-04-26 / Em um cenário de constantes mudanças tecnológicas e sociais, as crescentes complexidades do projeto contemporâneo vêm aumentando significativamente. O uso de softwares com abordagens paramétricas na exploração de projetos tem facilitado a automação dos demorados processos de desenho manual e permitido a introdução de alterações em fases posteriores do projeto. A inclusão do projeto algorítmico na prática projetual leva a necessidade de repensar o processo de projeto com base em conceitos não-lineares, isso porque sua construção está vinculada a um histórico projetual explícito. O enfoque deste trabalho foi o processo de desenvolvimento de um produto (PDP). O objetivo foi propor um modelo de referência de processo, que integrado com os Sistemas Generativos de Projeto (SGP), permitiu entender a sistemática da modelagem tridimensional nos softwares Rhinoceros e Grasshopper. Para que esse objetivo fosse alcançado foi utilizada a metodologia Design Science Research, onde foram analisados dois estudos de caso e desenvolvido um estudo exploratório intitulado de “Mesa dinâmica: uma experiência de mobiliário generativo”. Essa experimentação prática nos permitiu entender o fluxo de informações de um PDP quando associado aos SGP. O ato de tornar o processo explícito pode contribuir como um método estruturado na aplicação dos princípios lógicos do projeto algorítmico, agindo como uma lista de verificação no desenvolvimento de futuros projetos e promovendo uma comunicação mais rápida e eficiente entre os vários projetistas. / The contemporary design complexities have significantly increased in a scenario of continuous technological and social changes. Using parametric approach-based softwares to explore designs helps automating time-consuming hand drawing processes and allows making changes in later stages of the design. The algorithmic design inclusion into design practices leads to the need to rethink the design process based on non-linear concepts, since its construction is linked to an explicit design history. The current study focuses on the product development process (PDP). It has the aim of proposing a process reference model that, in articulation with Generative Design Systems (GDS), allows understanding how threedimensional modeling operates in softwares such as Rhinoceros and Grasshopper. Thus, a Design Sciense Research methodology that included the analysis of two case studies as well as the development of an exploratory study entitled "Dynamic table: a generative furniture experience" was used. This practical experimentation allowed understanding the information flow of a GDS-associated PDP. Making this process explicit may work as a structured method to apply the logical principles of algorithmic design. It may also work as a checklist in the development of future designs and provide faster and more efficient communication between different designers.

Page generated in 0.0553 seconds