Spelling suggestions: "subject:"programas dde computador."" "subject:"programas dee computador.""
221 |
Modelagem conceitual do sistema de banco de dados ProteinWorldDBBezerra, Márcia Mártyres January 2012 (has links)
Made available in DSpace on 2016-03-18T12:15:46Z (GMT). No. of bitstreams: 2
marcia_bezerra_ioc_dout_2012.pdf: 3641805 bytes, checksum: 551d726828aba255caeef4c323eae9ee (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2015-04-14 / Fundação Oswaldo Cruz. Instituto Oswaldo Cruz. Rio de Janeiro, RJ, Brasil / Esta tese descreve o projeto conceitual do sistema de banco de dados ProteinWorldDB (PWDB). Um ponto importante da proposta do PWDB é permitir a construção de consultas e procedimentos no domínio da genômica comparativa sem a necessidade de comparação de sequências. Além disso, o PCG comparou milhões de sequências de proteína, incluindo o conjunto proteico total de centenas de genomas completos, utilizando programação dinâmica, e não um método heurístico, para os cálculos de similaridade. A estratégia do PCG, assim como a genômica, está fundamentada no conhecimento de que sequências biológicas por si só são pouco informativas; elas precisam ser analisadas a partir de um enfoque comparativo para a inferência de homologia. A comparação de sequências de diferentes organismos introduz uma perspectiva evolutiva ao processo, e o estudo comparativo de genomas completos pode ampliar a escala do conhecimento de um único processo biológico para o de sistemas biológicos complexos em células e organismos. Para responder eficientemente questões dessa natureza, o esquema conceitual apresentado associa bases de dados biológicos de referência aos índices de similaridade já pré-calculados e armazenados pelo PCG
Utilizando um formato gráfico de fácil compreensão para representar conceitos e relacionamentos (diagrama ER), o esquema foi proposto para facilitar o planejamento de consultas e procedimentos por pesquisadores da área de genômica (sem conhecimento de linguagens de bancos de dados), assim como guiar o desenvolvimento e a implementação física do PWDB por profissionais da área de computação. Alguns exemplos são apresentados com o objetivo de demonstrar a utilização do esquema conceitual para a especificação de consultas e procedimentos, mesmo antes da existência de um esquema lógico. O esquema pode ser facilmente estendido. Módulos anexos podem ser inseridos/removidos para incluir outros projetos, baseados em comparação de sequências de proteína, que se beneficiem das informações fornecidas pelo módulo central do esquema e novas bases de dados, específicas de diferentes áreas (-ômicas, por exemplo), podem ser integradas ao esquema / This thesis
describes
the conceptua
l design of the database system ProteinWorldDB
(PWDB)
.
An important
point
of the
PWDB
p
roposal
is to allow the construction of queries
and procedures in the field of comparative genomics without the need for sequence
comparison
.
Moreover
, the
PCG
compared
millions of protein sequences,
including the
entire set of proteins from hundreds of complete genomes
using
dynamic programming
,
rather than a heuristic method
,
for calculating similarity
PCG‘s strategy, like that of genomic studies in general, is grounded
in the knowledge
that biological sequences alone are uninformative. They need to be analyzed from a
comparative approach to infer homology. The comparison of sequences from different
organisms introduces an evolutionary perspective to the process
and
the
comparative
study of complete genomes can expand our knowledge from a single biological process
all the way to complex biological systems in cells and organisms.
To efficiently answer
questions of this nature, the conceptual
schema
links
selected
internati
onal reference
biological databases to similarity
indexes
already
precomputed
and stored by the PCG
.
By using an easily understandable graphic format to represent concepts and
relationships (ER diagram), the schema
was
proposed
to help
the design of querie
s and
procedures by
genomic researchers (who may not have knowledge of database
languages)
as well as to guide the development and physical implementation of
the
system by developers.
Some e
xamples
are
presented
to demonstrate the use of the
conceptual sch
ema for specifying queries and procedures, even before the existence of
a logical schema.
The schema can be easily extended. Additional modules can be inserted/removed to
include other
protein sequences comparisons
projects that may benefit from
the
inform
ation provided by the schema ́s central module. Likewise, new databases specific
to different areas
(
-
omics, for example) can be cross
-
referenced to the schema / This thesis
describes
the conceptua
l design of the database system ProteinWorldDB
(PWDB)
.
An important
point
of the
PWDB
p
roposal
is to allow the construction of queries
and procedures in the field of comparative genomics without the need for sequence
comparison
.
Moreover
, the
PCG
compared
millions of protein sequences,
including the
entire set of proteins from hundreds of complete genomes
using
dynamic programming
,
rather than a heuristic method
,
for calculating similarity
PCG‘s strategy, like that of genomic studies in general, is grounded
in the knowledge
that biological sequences alone are uninformative. They need to be analyzed from a
comparative approach to infer homology. The comparison of sequences from different
organisms introduces an evolutionary perspective to the process
and
the
comparative
study of complete genomes can expand our knowledge from a single biological process
all the way to complex biological systems in cells and organisms.
To efficiently answer
questions of this nature, the conceptual
schema
links
selected
internati
onal reference
biological databases to similarity
indexes
already
precomputed
and stored by the PCG
.
By using an easily understandable graphic format to represent concepts and
relationships (ER diagram), the schema
was
proposed
to help
the design of querie
s and
procedures by
genomic researchers (who may not have knowledge of database
languages)
as well as to guide the development and physical implementation of
the
system by developers.
Some e
xamples
are
presented
to demonstrate the use of the
conceptual sch
ema for specifying queries and procedures, even before the existence of
a logical schema.
The schema can be easily extended. Additional modules can be inserted/removed to
include other
protein sequences comparisons
projects that may benefit from
the
inform
ation provided by the schema ́s central module. Likewise, new databases specific
to different areas
(
-
omics, for example) can be cross
-
referenced to the schema
|
222 |
Desenvolvimento de um sistema computadorizado para a coleta e o tratamento de dados sensoriais tempo-intensidadeCerqueira Junior, Noel Gonçalves January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Ciencias Agrarias. Programa de Pós-Graduação em Ciência dos Alimentos / Made available in DSpace on 2013-07-15T23:27:48Z (GMT). No. of bitstreams: 1
227380.pdf: 266908 bytes, checksum: 387bb3c5ce33225c021495a54880ce31 (MD5) / A percepção do gosto, sabor, aroma, textura, sensações térmicas e picantes provocadas por alimentos apresentam mudanças dinâmicas em intensidade com o tempo. O método tempointensidade (TI), em desenvolvimento desde a década de 50, tem se mostrado uma ferramenta indispensável para estudos dinâmicos em análise sensorial. Seu desenvolvimento inicia-se com a coleta manual de dados, avança com o desenvolvimento da informática e a tecnologia web. Junto ao desenvolvimento tecnológico, surgem novas técnicas de análise e interpretação dos dados tempo-intensidade. A disponibilidade de sistemas computadorizados de coleta e tratamento de dados tem dispertado interesse dos pesquisadores para a realização de estudos sensoriais dinâmicos. A maioria dos sistemas comerciais de análise sensorial incluem o método tempointensidade, porém, possuem um custo muito elevado. O protótipo TI-Web foi desenvolvido como uma solução de baixo custo para viabilizar estudos sensoriais com o método tempointensidade. O protótipo possibilita a programação de testes sensoriais, a coleta de dados através de uma escala de tempo-intensidade, a visualização de dados coletados e das curvas TI e a
extração de alguns parâmetros das curvas. O protótipo TI-Web foi utilizado com sucesso na obtenção de parâmetros curvas TI para o atributo doçura, permitindo a seleção de julgadores para estudos futuros com edulcorantes. A validação do protótipo TI-Web foi realizada a partir de um estudo de avaliação de características dinâmicas do gosto doce em soluções de sacarose, aspartame e da mistura ciclamato/sacarina 2:1 em equivalência de doçura através da metodologia de tempo-intensidade. Os resultados tempo-intensidade revelaram um cenário mais compreensivo das características de doçura das amostras estudadas. Através deste estudo pôde-se concluir que a amostra de sacarose apresentou uma persistência significativamente maior na intensidade do gosto doce do que a amostra ciclamato/sacarina 2:1. O protótipo TI-Web permitiu a coleta de dados e a extração dos parâmetros de tempo-intensidade.
|
223 |
Desenvolvimento de um sistema computadorizado para a coleta e o tratamento de dados sensoriais tempo-intensidadeCerqueira Junior, Noel Gonçalves January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Ciencias Agrarias. Programa de Pós-Graduação em Ciência dos Alimentos / Made available in DSpace on 2013-07-15T23:41:24Z (GMT). No. of bitstreams: 1
214340.pdf: 266908 bytes, checksum: 387bb3c5ce33225c021495a54880ce31 (MD5) / A percepção do gosto, sabor, aroma, textura, sensações térmicas e picantes provocadas por alimentos apresentam mudanças dinâmicas em intensidade com o tempo. O método tempointensidade (TI), em desenvolvimento desde a década de 50, tem se mostrado uma ferramenta indispensável para estudos dinâmicos em análise sensorial. Seu desenvolvimento inicia-se com a coleta manual de dados, avança com o desenvolvimento da informática e a tecnologia web. Junto ao desenvolvimento tecnológico, surgem novas técnicas de análise e interpretação dos dados tempo-intensidade. A disponibilidade de sistemas computadorizados de coleta e tratamento de dados tem dispertado interesse dos pesquisadores para a realização de estudos sensoriais dinâmicos. A maioria dos sistemas comerciais de análise sensorial incluem o método tempointensidade, porém, possuem um custo muito elevado. O protótipo TI-Web foi desenvolvido como uma solução de baixo custo para viabilizar estudos sensoriais com o método tempointensidade. O protótipo possibilita a programação de testes sensoriais, a coleta de dados através de uma escala de tempo-intensidade, a visualização de dados coletados e das curvas TI e a
|
224 |
Caracterização e estudos das propriedades no estado sólido do cloridrato de venlafaxinaBernardi, Larissa Sakis January 2013 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro de Ciências da Saúde, Programa de Pós-Graduação em Farmácia, Florianópolis, 2013. / Made available in DSpace on 2013-12-05T23:23:04Z (GMT). No. of bitstreams: 1
317855.pdf: 7973152 bytes, checksum: ebdfa7efc74c191231bcf573076b2cbc (MD5)
Previous issue date: 2013 / O cloridrato de venlafaxina (VEN) é um inibidor da recaptação da serotonina e norepinefrina eficaz no tratamento da doença da depressão e distúrbios de ansiedade generalizada. Este trabalho contemplou a caracterização do cloridrato de venlafaxina; o desenvolvimento e a validação de método por cromatografia líquida de alta eficiência (CLAE) para quantificação do fármaco em cápsulas de liberação prolongada, bem como o estudo das diferentes formas cristalinas do cloridrato de venlafaxina, a avaliação da presença dos diferentes polimorfos em matérias-primas e o desenvolvimento e validação de um método de quantificação das Formas polimórficas 1 e 2 do fármaco por difração de raios-X, empregando o método de Rietveld. O método por CLAE em fase reversa foi desenvolvido e validado para determinação de teor e ensaios de dissolução. O método mostrou-se linear (r> 0,99), exato (98,8 - 101,2%) e preciso (DPR< 0,9%). O fármaco foi caracterizado através de diferentes técnicas analíticas, como: termogravimetria (TG), calorimetria exploratória diferencial (DSC), infravermelho (IV), microscopia eletrônica de varredura (MEV) e difração de raios-X em pó (DRXP), demonstrando as propriedades físico-químicas do fármaco. Além disso, foram realizados estudos de compatibilidade entre o fármaco e alguns excipientes utilizados no desenvolvimento das formas farmacêuticas sólidas disponíveis comercialmente, como talco, estearato de magnésio, celulose microcristalina, amido glicolato de sódio, amido e lactose monoidratada. Nenhuma evidência de interação no estado sólido ou incompatibilidade foram observadas por DSC e DRIFT. Quatro matérias-primas de diferentes fornecedores foram caracterizadas utilizando as técnicas analíticas anteriormente citadas, e verificou-se que duas correspondiam à Forma polimórfica 1, enquanto as outras duas eram misturas das Forma 1 e 2 do fármaco. Realizou-se, também, a caracterização das Formas polimórficas 1 e 2, que foram obtidas a partir de diferentes métodos de cristalização, e uma nova forma polimórfica, Forma 3, obtida a partir da recristalização da fusão da Forma 2, foi isolada, caracterizada e demonstrou ser diferente daquelas depositadas no Cambridge Crystallographic Database. A caracterização dos três polimorfos foi realizada por DRXP, DRIFT, DSC, MEV, Espectroscopia Raman, microscopia de fase quente, temperatura variável de difração de raios-X de pó e medições de solubilidade. A avaliação termodinâmica entre as Formas polimórficas 1 e 3 foi realizada, encontrando-se uma relação monotrópica entre as duas, sendo a Forma 3 a forma polimórfica mais estável. Um método de quantificação de fases polimórficas para as Formas 1 e 2 do cloridrato de venlafaxina por DRX, empregando o refinamento de Rietveld, foi desenvolvido e validado. O método foi validado de acordo com os guias do ICH e FDA, sendo considerado linear na faixa de 4,86 - 97,06% (p/p Forma 2/Forma 1), preciso e exato, com limites de detecção de 1,16% e quantificação de 3,50%.<br> / Abstract : Venlafaxine hydrochloride (VEN) is a potent serotonin and norepinephrine reuptake inhibitor effective in treatment of the depression disease and generalized anxiety disorder. The present work included the characterization of venlafaxine hydrochloride, development and validation of a method to quantify the drug in extended-release capsules by high performance liquid chromatography (HPLC), as well as the study of different crystalline forms of venlafaxine hydrochloride, evaluation of the presence of different polymorphs in raw materials and development and validation of a quantification method for polymorphic Forms 1 and 2 by X-ray diffraction using the Rietveld refinement. The HPLC method was developed, validated and successfully applied in dissolution tests. The method was linear (r> 0.99), accurate (98.8 to 101.2%) and precise (RSD< 0.9%). The drug was characterized by various analytical techniques, such as thermogravimetry (TG), differential scanning calorimetry (DSC), infrared (IR), scanning electron microscopy (SEM), and X-ray powder diffraction (XRPD), demonstrating the physicochemical properties of the drug. In addition, compatibility studies were performed between the drug and some excipients like talc, magnesium stearate, microcrystalline cellulose, sodium starch glycolate, starch and lactose monohydrate. No evidence of interaction or incompatibility in the solid state was observed by DSC and DRIFT. Four raw materials from different suppliers were characterized using the analytical techniques mentioned above, and it was found that two raw materials corresponded to VEN Form 1, while the other two were mixtures of Forms 1 and 2. Also, the characterization of the polymorphic Forms 1 and 2, which were obtained from differents crystallization methods, was carried out. A new polymorphic form, Form 3, obtained from the "melted" of Form 2 was isolated, characterized and showed to be different from those deposited at the Cambridge Crystallographic Database. The characterization of the three polymorphs was performed by DRXP, DRIFT, DSC, SEM, Raman spectroscopy, hot stage microscopy, variable temperature X-ray powder diffraction measurements, and solubility. VEN polymorphic thermodynamic relationship was performed and a monotropic relationship between Forms 1 and 3 was found, and the Form 3 demonstrates to be the most stable polymorphic form. A method for polymorphic phases quantification of the Form 1 and 2 by XRPD using Rietveld refinement was developed and then validated according to ICH and FDA guidelines. It was considered linear in the range from 4.86 to 97.06% (w/w Form 2/Form 1), precise and accurate, with detection of limits of 1.16% and quantitation of 3.50%.
|
225 |
Implementação de um software discriminador de repasse de eventos para a arquitetura internetCerqueira, Eduardo Coelho January 2003 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-21T01:04:59Z (GMT). No. of bitstreams: 1
205995.pdf: 1081924 bytes, checksum: 75cba0eb22c6f6e50d5ac0a2a938ae1c (MD5) / Este trabalho apresenta um Software Discriminador deRepasse de Eventos (SDRE) construído em Java, aplicando as funcionalidades do modelo OSI em ambientes SNMP. É feita uma revisão bibliográfica das duas arquiteturas de gerência de redes, buscando adequar a norma OSI/ITU-T X-734 à Internet e são apresentadas motivações que demonstram esforços atuais nesta área. Esta aplicação é simples e funcional, enfatizando a técnica de relatório de eventos, filtrando os mesmos e podendo selecionar várias estações de gerenciamento destinatárias, como forma de descentralizar e melhorar o desempenho da arquitetura de gerência de redes Internet. Por fim são apresentados os resultados dos testes efetuados, a avaliação e a validação do software, bem como o ambiente simulado e de produção onde foi implantado o discriminador.
|
226 |
Uma abordagem pedagógica baseada na análise de modelos para alunos de biologia: qual o papel do software?Soares, Débora da Silva [UNESP] 06 December 2012 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:31:42Z (GMT). No. of bitstreams: 0
Previous issue date: 2012-12-06Bitstream added on 2014-06-13T18:42:43Z : No. of bitstreams: 1
soares_ds_dr_rcla.pdf: 3247548 bytes, checksum: e6f8f4298a04642eaac4729031534bb4 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / O objetivo desta pesquisa é investigar qual o(s) papel(éis) de um software no desenvolvimento de uma abordagem pedagógica baseada na Análise de Modelos. Esta abordagem foi elaborada para alunos do curso de Biologia da Unesp, campus de Rio Claro, SP, que fazem a disciplina Matemática Aplicada. A ementa da disciplina inclui o estudo de funções, noções de limite, derivada e integral, e suas aplicações, configurando-se como uma disciplina de Cálculo Diferencial e Integral I com carga horária reduzida. O termo Análise de Modelos é utilizado para caracterizar a ideia central da abordagem pedagógica, a saber, propor aos alunos a análise de um modelo matemático para um fenômeno de sua área de interesse desde o primeiro dia do semestre letivo. Esta análise tem como foco o entendimento das equações do modelo e o estudo do comportamento de suas soluções, assim como a influência dos parâmetros do modelo neste comportamento. Além disso, esta análise é proposta de modo que possa ser relacionada com alguns dos conteúdos previstos na ementa da disciplina, em particular funções e derivada. O fenômeno biológico proposto para estudo foi o da transmissão da malária e o modelo matemático analisado foi o modelo de Ross- Macdonald. O objetivo desta pesquisa está relacionado com o construto teórico sereshumanos- com-mídias (BORBA; VILLARREAL, 2005), que delega um papel central às mídias nos processos de produção de conhecimento. Partindo deste pressuposto, quer-se identificar estes papéis e refletir sobre os mesmos com relação à abordagem pedagógica estruturada. Os dados desta pesquisa foram construídos por meio da aplicação da abordagem pedagógica a duas turmas regulares da disciplina, seguindo uma metodologia qualitativa. A partir da análise dos dados foi possível identificar três papéis para o software: fornecer... / The aim of this research is to investigate the role of a software program in the development of a teaching approach based on Model Analysis. This teaching approach was developed for Biological Sciences students at the State University of São Paulo, Rio Claro, SP, enrolled in the Applied Mathematics course. The syllabus of this course includes the study of functions, notions of limits, derivatives and integrals, and their applications, comparable to a Differential and Integral Calculus I course, however with a reduced workload. The term Model Analysis is used to characterize the central idea of the teaching approach, which is to propose to the students the analysis of a mathematical model for a phenomenon in the area of their interest since the first day of class. This analysis focuses on students’ comprehension of the model’s equations and the study of the behavior of the solutions it provides, as well as the influence of the parameters in this behavior. Furthermore, this analysis is proposed in a way that it can be related to some of the subjects in the syllabus of the discipline, in particular functions and derivatives. The biological phenomenon studied was the transmission of malaria, and the mathematical model analyzed was the Ross-Macdonald model. The aim of this research is related to the theoretical construct humans-with-media (BORBA; VILLARREAL, 2005), which emphasizes a central role of media in the processes of knowledge production. Under this assumption, my objective was to identify these roles and reflect about them in relation to the teaching approach. The data for the research was collected during the application of the teaching approach in two regular classes of the course, using a qualitative methodology. From the data analysis, it was possible to identify three roles of the software: to provide results... (Complete abstract click electronic access below)
|
227 |
Geoprocessamento e computação inteligente: possibilidades, vantagens e necessidadesPereira, Carlos José de Almeida [UNESP] 24 November 2008 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:33:21Z (GMT). No. of bitstreams: 0
Previous issue date: 2008-11-24Bitstream added on 2014-06-13T18:44:56Z : No. of bitstreams: 1
pereira_cja_dr_rcla.pdf: 3102935 bytes, checksum: f63c54be769615a9e581a9b476b27ed5 (MD5) / As técnicas de análise de dados e de busca de soluções fornecidas pela Computação Inteligente tiveram, nos últimos tempos, um grande avanço em seu desenvolvimento. Essas técnicas têm sido utilizadas com eficácia e eficiência no tratamento de problemas complexos e/ou que possuam uma grande quantidade de dados a serem processados. A integração destas técnicas com as ferramentas computacionais de produção e análise de informações geográficas (Geoprocessamento) é, portanto, muito vantajosa, especialmente com relação à grande quantidade de dados geralmente envolvida nas questões de natureza espacial. Este trabalho apresenta dois exemplos de uso de técnicas de Computação Inteligente em procedimentos de produção e análise de informações geográficas: um Sistema de Raciocínio Nebuloso (baseado na Lógica Nebulosa) para a construção de um mapa de fertilidade de solos, e uma Rede Neural Artificial para a identificação de agrupamentos espaciais em dados sócio-econômicos. Os dois exemplos foram conduzidos utilizando-se um software especialmente construído para esta finalidade, denominado GAIA – Geoprocessamento Apoiado por Inteligência Artificial –, e que doravante está disponível como Software Livre para qualquer pesquisador interessado em utilizar estas ferramentas. O estudo conclui que o uso das técnicas provenientes da computação inteligente, em comparação com técnicas tradicionais de análise de dados, contribuiu para um aumento da qualidade dos resultados obtidos. / Data analysis and problem solving techniques supplied by Soft Computing have had, lately, a great advance in their development. These techniques have been used with effectiveness and efficiency to deal with complex problems and/or problems that have too much data to be processed. The integration of such techniques with the tools for computational geographic information analysis (Geocomputation) is therefore very advantageous, especially in relation to the great quantity of data normally involved in spatial matters. This study presents two examples on how to use Soft Computing techniques in conjunction with geographic information analysis procedures: a Fuzzy Reasoning System (based on Fuzzy Logic) to build a soil fertility map, and an Artificial Neural Network to identify spatial clusters in socioeconomic data. Both examples were conducted using a software specifically developed towards this objective, called GAIA - Artificial Intelligence Supported Geocomputation, from now on available as a Free Software to any interested researcher. The study arrives at the conclusion that the use of soft computing techniques, as compared to classical procedures, leads to an increased quality on the final results.
|
228 |
Metodologia de análise da eficiência e da eficácia do ensino do Instituto Federal de Educação, Ciência e Tecnologia do Ceará (IFCE) com suporte de geotecnologiasRocha, Maria Benedita Lopes [UNESP] 17 July 2012 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:33:21Z (GMT). No. of bitstreams: 0
Previous issue date: 2012-07-17Bitstream added on 2014-06-13T18:44:57Z : No. of bitstreams: 1
rocha_mbl_dr_rcla.pdf: 3101271 bytes, checksum: 80e06aed11792636f94efea672fa10ba (MD5) / Esta pesquisa desenvolveu uma metodologia de análise do ensino do Instituto Federal de Educação, Ciência e Tecnologia do Ceará (IFCE) com suporte de geotecnologias. A indisponibilidade das informações quantitativas e qualitativas, distribuídas geograficamente em toda estrutura de ensino do IFCE, é um problema sério. Como forma de contribuir para a minimização desse problema, este trabalho de pesquisa buscou, com o apoio da informática e da cartografia, formatar um banco de dados que propiciasse análises mais precisas sobre o desempenho institucional no campo do ensino, por meio do cálculo dos Índices de Eficiência e de Eficácia de seus cursos. Tal ferramenta visou facilitar o acompanhamento permanente dos dados situacionais dos alunos de modo a permitir tomadas de decisões mais rápidas e eficazes, tendo como foco de análise a retenção, repetência e evasão escolar, e como lócus de estudo, o campus de Fortaleza. A coleta inicial foi feita a partir do Sistema Acadêmico do IFCE, utilizando como recorte temporal os alunos que entraram entre 2006 e 2010. Ao banco de dados gerado, a partir da amostra, foram acrescentadas as coordenadas geográficas do local de moradia dos alunos, para posterior espacialização. A partir do cálculo da Eficiência e Eficácia de cada turma da amostra foram gerados gráficos estatísticos e foi feita uma análise da evasão, retenção, baseada nas características dos cursos e na situação socioeconômica dos alunos, e buscou representar espacialmente os alunos da amostra e gerar mapas temáticos com o auxílio do banco de dados e do SIG ArcGIS. Os mapas temáticos ilustram as variáveis relativas à evasão, repetência e formação de alunos do IFCE, Câmpus de Fortaleza integradas com os dados censitários relativos à renda do chefe de família para os setores da cidade nos quais... / This research developed a methodology to analyze teaching at the Federal Institute of Education, Science and Technology of Ceará (IFCE) with the support of geo-technologies. The unavailability of quantitative and qualitative information, geographically distributed throughout the teaching structure of IFCE is a serious problem. In order to help minimize that problem, this research has sought, with the help of computer processing and cartography, to format a database that would provide more accurate analysis on the institutional performance in the teaching field, by calculating the Efficiency and Effectiveness Indices of your courses. This tool aimed to facilitate the permanent monitoring of the students' situational data in order to enable faster and more effective decision making, by having the retention, repetition and school dropout as an analytical focus and the Fortaleza campus as a study locus. The initial data were collected from the IFCE Academic System, by using the students who were admitted between 2006 and 2010 as a time frame. Based on the sample, the geographic coordinates of the students’ place of residence were added to the generated database for further spatialization. Based on the calculation of the efficiency and effectiveness of each class within the sample, statistical graphs were generated and an analysis of the dropout and retention was carried out based on the characteristics of the courses and the students’ socioeconomic status. This study also aimed to spatialize the students within the sample and create thematic maps with the help of the database and the SIG ArcGIS. The thematic maps illustrate the dropout, repetition and empowerment variables of IFCE students at Fortaleza Campus, integrated with the census data related to the householder’s income for the sectors... (Complete abstract click electronic access below)
|
229 |
Funções trigonométricasCajuela, Renata Ferreira [UNESP] 19 August 2013 (has links) (PDF)
Made available in DSpace on 2014-11-10T11:09:53Z (GMT). No. of bitstreams: 0
Previous issue date: 2013-08-19Bitstream added on 2014-11-10T11:57:46Z : No. of bitstreams: 1
000788270.pdf: 549187 bytes, checksum: 256cac8b091b19656dd73723494adedb (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / O presente trabalho trata-se de um conjunto de atividades voltadas ao ensino dos conceitos básicos da trigonometria para o ensino médio, acompanhadas de um resumo teórico da disciplina em questão. As atividades foram elaboradas em um software de geometria dinâmica: o GeoGebra, e possuem o intuito de fazer com que o aluno perceba o comportamento das razões seno, cosseno e tangente no triângulo retângulo, e também no círculo unitário. As demais funções trigonométricas: secante, cosecante e cotangente são definidas e apresentadas graficamente. Funções do tipo h(x)=a+b.cos(cx+d), são analisadas, enfocando como seus gráficos se comportam em relação às mudanças ocorridas em seus coeficientes reais a, b, c e d. As atividades são intercaladas por explicações teóricas, que podem ser usadas ou adaptadas pelo professor, de acordo com o conhecimento de seus alunos / The present work is a set of activities aimed at teaching introductory notions of trigonometry to high school, accompanied by an abstract theory of the subject. The activities were developed in free and multi-platform dynamic mathematics software: GeoGebra, and have the intentation to make students realize the behavior of trigonometric ratios of sine, cosine and tangent in right-angled triangle, and also on the unit circle. The other trigonometric functions: secant, cosecant and cotangent are defined and presented graphically. Functions like h(x)=a+b.cos(cx+d), are analyzed focusing on the behavior of their graphics when the real coefficients a, b, cand d vary. Activities are interspersed with theoretical explanations that can be used or adapted by the teacher, according to the knowledge of their students
|
230 |
Validação de um método para análises tridimensionais de tomografia computadorizada de feixe cônico /Bianchi, Jonas. January 2016 (has links)
Orientador: João Roberto Gonçalves / Resumo: O exame de tomografia computadorizada de feixe cônico (TCFC) tem sido utilizado amplamente na área clínica e científica médico/odontológica. Diversos softwares de diferentes fabricantes fornecem opções para processamento das imagens, segmentações e análises quantitativas tridimensionais. Um ponto que ainda gera controvérsias nessa área é a confiabilidade dos dados analisados computacionalmente devido às limitações dos algoritmos utilizados, complexidade da estrutura a ser avaliada, magnitude da mensuração, resolução espacial e variações nas metodologias de análises. Muitas dessas limitações são devidas as análises serem realizadas de formas não padronizadas e dependentes do operador. Deste modo, o objetivo geral do presente estudo foi desenvolver e validar um novo aplicativo para mensuração automática de deslocamentos ósseos a partir de TCFC de um crânio humano macerado. Para testar a confiabilidade do método, criamos um protótipo onde foram realizados deslocamentos físicos no crânio seguidos por exames de TCFC e realizamos os mesmos deslocamentos de forma virtual. As mensurações foram obtidas com base nos registros em maxila e na base do crânio por meio do nosso aplicativo e pelo 3D-Slicer, respectivamente. Além disso, realizamos uma análise visual após segmentação semiautomática por meio do ITK-SNAP para detecção do menor defeito ósseo em fragmento de osso bovino. Nossos resultados mostraram que as ferramentas testadas foram... (Resumo completo, clicar acesso eletrônico abaixo) / Cone beam computerized tomography (CBCT) has been widely used in the clinical, scientific, medical and dental field. Various software from different manufacturers offer options for image processing, segmentation and quantitative analysis. One point that still generates controversy in this area is the reliability of the computer-analyzed data, because of the algorithms limitations, complexity of the structure to be assessed, magnitude of the measurement, spatial resolution and spatial variations in the records. Many of these limitations are caused by analyzes that are conducted in a non-standard form and highly dependent on the operator. Thus, the general objective of this study was to develop and validate a new application for automatic measurement of bone displacement from CBCTs of a macerated human skull. To evaluate our method's reliability, we created a prototype where physical movements were performed in a human skull followed by CBCT examinations and performed the same movements virtually. Measurements were obtained from the records in jaw and skull base using our application and the 3D Slicer software, respectively. We also performed a visual analysis after the semi-automatic segmentation using the ITK-SNAP for detection of the lower bone defect in bovine bone fragment. Our results showed that we have succeeded in implementing our application of automatic analysis for three-dimensional measurements in the craniofacial area. The tools used in this study could detect physical displacements smaller than the spatial resolution of the image, and the results were comparable to the 3D Slicer software. For virtual displacements, precise results were obtained, and the movements were limited by the image resolution. Furthermore, we observed that the detection and visualization of bone defects in the bovine cortex...(Complete abstract electronic access below) / Mestre
|
Page generated in 0.0966 seconds