• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 296
  • 17
  • 15
  • 15
  • 15
  • 8
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 1
  • Tagged with
  • 315
  • 315
  • 76
  • 57
  • 56
  • 55
  • 53
  • 45
  • 35
  • 35
  • 30
  • 30
  • 29
  • 29
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Validação de um método para análises tridimensionais de tomografia computadorizada de feixe cônico / Validation of a method for three-dimensional analysis using cone beam computed tomography

Bianchi, Jonas [UNESP] 12 December 2016 (has links)
Submitted by Jonas Bianchi null (jonasbianchi@foar.unesp.br) on 2017-02-10T09:34:31Z No. of bitstreams: 1 BianchiJ.pdf: 8241431 bytes, checksum: c518c64d3206149062fef34dad2ea3f0 (MD5) / Approved for entry into archive by LUIZA DE MENEZES ROMANETTO (luizamenezes@reitoria.unesp.br) on 2017-02-14T18:27:57Z (GMT) No. of bitstreams: 1 bianchi_j_me_arafo.pdf: 8241431 bytes, checksum: c518c64d3206149062fef34dad2ea3f0 (MD5) / Made available in DSpace on 2017-02-14T18:27:57Z (GMT). No. of bitstreams: 1 bianchi_j_me_arafo.pdf: 8241431 bytes, checksum: c518c64d3206149062fef34dad2ea3f0 (MD5) Previous issue date: 2016-12-12 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / O exame de tomografia computadorizada de feixe cônico (TCFC) tem sido utilizado amplamente na área clínica e científica médico/odontológica. Diversos softwares de diferentes fabricantes fornecem opções para processamento das imagens, segmentações e análises quantitativas tridimensionais. Um ponto que ainda gera controvérsias nessa área é a confiabilidade dos dados analisados computacionalmente devido às limitações dos algoritmos utilizados, complexidade da estrutura a ser avaliada, magnitude da mensuração, resolução espacial e variações nas metodologias de análises. Muitas dessas limitações são devidas as análises serem realizadas de formas não padronizadas e dependentes do operador. Deste modo, o objetivo geral do presente estudo foi desenvolver e validar um novo aplicativo para mensuração automática de deslocamentos ósseos a partir de TCFC de um crânio humano macerado. Para testar a confiabilidade do método, criamos um protótipo onde foram realizados deslocamentos físicos no crânio seguidos por exames de TCFC e realizamos os mesmos deslocamentos de forma virtual. As mensurações foram obtidas com base nos registros em maxila e na base do crânio por meio do nosso aplicativo e pelo 3D-Slicer, respectivamente. Além disso, realizamos uma análise visual após segmentação semiautomática por meio do ITK-SNAP para detecção do menor defeito ósseo em fragmento de osso bovino. Nossos resultados mostraram que as ferramentas testadas foram capazes de detectar deslocamentos físicos menores que a resolução espacial da imagem, sendo que os resultados foram comparáveis ao 3D-Slicer. Para os deslocamentos virtuais, foram obtidos resultados precisos, sendo que os deslocamentos foram limitados pela resolução da imagem. Além disso, observamos que a detecção e visualização de pequenos defeitos ósseos, mesmo que maiores do que a resolução espacial da imagem podem ser comprometidas pelo processo de segmentação da imagem. Concluímos que o aplicativo de análises automáticas desenvolvido é confiável para mensurações tridimensionais na área craniomaxilofacial. / Cone beam computerized tomography (CBCT) has been widely used in the clinical, scientific, medical and dental field. Various software from different manufacturers offer options for image processing, segmentation and quantitative analysis. One point that still generates controversy in this area is the reliability of the computer-analyzed data, because of the algorithms limitations, complexity of the structure to be assessed, magnitude of the measurement, spatial resolution and spatial variations in the records. Many of these limitations are caused by analyzes that are conducted in a non-standard form and highly dependent on the operator. Thus, the general objective of this study was to develop and validate a new application for automatic measurement of bone displacement from CBCTs of a macerated human skull. To evaluate our method’s reliability, we created a prototype where physical movements were performed in a human skull followed by CBCT examinations and performed the same movements virtually. Measurements were obtained from the records in jaw and skull base using our application and the 3D Slicer software, respectively. We also performed a visual analysis after the semi-automatic segmentation using the ITK-SNAP for detection of the lower bone defect in bovine bone fragment. Our results showed that we have succeeded in implementing our application of automatic analysis for three-dimensional measurements in the craniofacial area. The tools used in this study could detect physical displacements smaller than the spatial resolution of the image, and the results were comparable to the 3D Slicer software. For virtual displacements, precise results were obtained, and the movements were limited by the image resolution. Furthermore, we observed that the detection and visualization of bone defects in the bovine cortex, even higher than the spatial resolution of the image, can be compromised by the image segmentation process. We conclude that the automatic analysis derived from our developed application is reliable for three-dimensional measurements in the craniofacial area.
212

Dimensionamento de pilares esbeltos de concreto armado com seção qualquer solicitados por flexão composta oblíqua / not available

Ismael Wilson Cadamuro Júnior 12 June 1997 (has links)
Este trabalho apresenta um estudo geral sobre o dimensionamento e verificação de pilares esbeltos de concreto armado solicitados por flexão composta oblíqua, levando-se em consideração as não-linearidades física (o material não segue a lei de Hooke) e geométrica (análise em 2ª ordem). É abordado também o dimensionamento de seções isoladas no Estado Limite Último de ruptura. É admitida seção transversal de forma poligonal qualquer, assim como disposição da armadura também arbitrária. O efeito de carregamento de longa duração (fluência) é levado em consideração. A relação tensão-deformação do concreto é geral, admitida como uma seqüência de polinômios de graus arbitrários. Vários algoritmos detalhados e rotinas computacionais são apresentados. / This work presents a general study on the design and veriflcation of slender reinforced concrete columns, subjected to axial force and biaxial bending, considering material and geometric non-linearities (material doesn\'t fit Hooke law and second order analysis). It is also treated the design of cross sections in the ultimate strength. It is considered a general poligonal cross section, with any reinforcement distribuition. The creep effect is also taken into account. The concrete stress-strain curve is anyone since it can be represented as a sequence of any degree polinomiuns. Detailed calculation and computational routines are given too.
213

Ferramenta informática de apoio à escavação de túneis

Costa, Bruno Manuel Amaral da January 2012 (has links)
Tese de mestrado. Engenharia de Minas e Geo-Ambiente. Faculdade de Engenharia. Universidade do Porto. 2012
214

Um sistema de construção automática de horários em Universidades, utilizando o algoritmo de Arrefecimento Simulado

Faria, Pedro Miguel Teixeira January 2000 (has links)
Dissertação apresentada para obtenção do grau de Mestre em Engenharia Electrotécnica e de Computadores (Ramo de Informática Industrial), na Faculdade de Engenharia da Universidade do Porto, sob a orientação do professor Doutor Eugénio da Costa Oliveira e co-orientação do Mestre Luís Paulo Reis
215

MIDAS : Metodologia orientada ao objecto para desenvolvimento de sistemas embebidos

Fernandes, João Miguel Lobo January 2000 (has links)
Dissertação apresentada para obtenção do grau de Doutor em Informática (Área de Conhecimento de Engenharia de Computadores), no Departamento de Informática da Escola de Engenharia da Universidade do Minho, sob a orientação dos Profs. Doutores Alberto José Gonçalves de Carvalho Proença e Henrique Manuel Dinis dos Santos
216

Uma abordagem pedagógica baseada na análise de modelos para alunos de biologia : qual o papel do software? /

Soares, Débora da Silva. January 2012 (has links)
Orientador: Marcelo de Carvalho Borba / Banca: Carina Alves / Banca: João Frederico da Costa Azevedo Meyer / Banca: Lourdes Maria Werle de Almeida / Banca: Otávio Jacobini / Resumo: O objetivo desta pesquisa é investigar qual o(s) papel(éis) de um software no desenvolvimento de uma abordagem pedagógica baseada na Análise de Modelos. Esta abordagem foi elaborada para alunos do curso de Biologia da Unesp, campus de Rio Claro, SP, que fazem a disciplina Matemática Aplicada. A ementa da disciplina inclui o estudo de funções, noções de limite, derivada e integral, e suas aplicações, configurando-se como uma disciplina de Cálculo Diferencial e Integral I com carga horária reduzida. O termo Análise de Modelos é utilizado para caracterizar a ideia central da abordagem pedagógica, a saber, propor aos alunos a análise de um modelo matemático para um fenômeno de sua área de interesse desde o primeiro dia do semestre letivo. Esta análise tem como foco o entendimento das equações do modelo e o estudo do comportamento de suas soluções, assim como a influência dos parâmetros do modelo neste comportamento. Além disso, esta análise é proposta de modo que possa ser relacionada com alguns dos conteúdos previstos na ementa da disciplina, em particular funções e derivada. O fenômeno biológico proposto para estudo foi o da transmissão da malária e o modelo matemático analisado foi o modelo de Ross- Macdonald. O objetivo desta pesquisa está relacionado com o construto teórico sereshumanos- com-mídias (BORBA; VILLARREAL, 2005), que delega um papel central às mídias nos processos de produção de conhecimento. Partindo deste pressuposto, quer-se identificar estes papéis e refletir sobre os mesmos com relação à abordagem pedagógica estruturada. Os dados desta pesquisa foram construídos por meio da aplicação da abordagem pedagógica a duas turmas regulares da disciplina, seguindo uma metodologia qualitativa. A partir da análise dos dados foi possível identificar três papéis para o software: fornecer... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The aim of this research is to investigate the role of a software program in the development of a teaching approach based on Model Analysis. This teaching approach was developed for Biological Sciences students at the State University of São Paulo, Rio Claro, SP, enrolled in the Applied Mathematics course. The syllabus of this course includes the study of functions, notions of limits, derivatives and integrals, and their applications, comparable to a Differential and Integral Calculus I course, however with a reduced workload. The term Model Analysis is used to characterize the central idea of the teaching approach, which is to propose to the students the analysis of a mathematical model for a phenomenon in the area of their interest since the first day of class. This analysis focuses on students' comprehension of the model's equations and the study of the behavior of the solutions it provides, as well as the influence of the parameters in this behavior. Furthermore, this analysis is proposed in a way that it can be related to some of the subjects in the syllabus of the discipline, in particular functions and derivatives. The biological phenomenon studied was the transmission of malaria, and the mathematical model analyzed was the Ross-Macdonald model. The aim of this research is related to the theoretical construct humans-with-media (BORBA; VILLARREAL, 2005), which emphasizes a central role of media in the processes of knowledge production. Under this assumption, my objective was to identify these roles and reflect about them in relation to the teaching approach. The data for the research was collected during the application of the teaching approach in two regular classes of the course, using a qualitative methodology. From the data analysis, it was possible to identify three roles of the software: to provide results... (Complete abstract click electronic access below) / Doutor
217

Análise da correlação azimutal entre hádrons produzidos em colisões relativísticas de íons pesados em uma abordagem hidrodinâmica utilizando o código NeXSPheRIO. /

Castilho, Wagner Maciel. January 2017 (has links)
Orientador: Wei-liang Qian / Banca: Marcelo Batista Hott / Banca: Julio Marny Hoff da Silva / Banca: Sandra dos Santos Padula / Banca: Otávio Socolowski Junior / Resumo: Os fenômenos físicos envolvidos em colisões relativísticas de íons pesados foram estudados utilizando o código hidrodinâmico NeXSPheRIO, com condições iniciais flutuantes evento a evento, caracterizado por tubos de fluxo longitudinais de altas energias. Foram realizadas análises para o espectro de hádrons em função dos momentos transversais pelos cálculos das distribuições de partículas em sete janelas de centralidade de colisão, de acordo com dados publicados pela Colaboração STAR. A coletividade da matéria nuclear formada durante as colisões foi investigada em termos de correlações azimutais entre hádrons. Verificou-se que as estruturas da correlação dependem do momento transversal e da centralidade. Tais estruturas são atribuídas à interação entre um fundo dependente da centralidade e as flutuações de evento a evento na multiplicidade. Como resultado, as correlações observadas são apresentadas por um duplo pico na região do away-side que mudam continuamente para um pico único sob certas circunstâncias. Em termos do modelo do tubo periférico, o fundo é dominado pelo fluxo elíptico que aumenta com a descentralização. Pelos cálculos numéricos, a anisotropia do sistema é estudada quanto aos coeficientes de fluxo harmônico até a quarta ordem, de acordo com os dados da colaboração PHENIX. A anisotropia do fundo contribui para as correlações entre hádrons e pôde ser avaliada pelo método ZYAM. Após sua subtração na produção do sinal de correlação próprio, a estrutura de correlação... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The physical phenomena involved in relativistic heavy-ion collisions were studied using a hydrodynamic code, NeXSPheRIO, with event-by-event fluctuating initial conditions featured by high-energy longitudinal flux tubes. Analyses were carried out for hadron spectrum as a function of the transverse momentum by the calculations of particle distributions in seven collision centrality windows, according to the data published by the STAR Collaboration. Also, the collectivity of the nuclear matter formed during the collisions was investigated in terms of dihadron azimuthal correlations. The correlation structures were found to be dependent on the transverse momentum and centrality. They are attributed to the interplay between the centrality dependent background and the eventby-event multiplicity fluctuations. As a result, the observed correlations are featured by a double-peak in the away-side region that continuously change to a single peak under certain circumstances. In terms of the peripheral tube model, the background is dominated by the elliptic flow which increases with decreasing centrality. By numerical calculations, the anisotropy of the system is studied regarding the harmonic flow coefficients up to fourth order, in accordance with the existing RHIC data. The background anisotropy contributes to the dihadron correlations, and can be evaluated by the ZYAM method. After it is subtracted from the proper correlation yields, the resultant correlation structure is a function ... (Complete abstract click electronic access below) / Doutor
218

Validação do algoritmo do programa netuno para avaliação do potencial de economia de água potável e dimensionamento de reservatórios de sistemas de aproveitamento de água pluvial em edificações

Rocha, Vinicius Luis 24 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Civil, Florianópolis, 2009 / Made available in DSpace on 2012-10-24T14:39:40Z (GMT). No. of bitstreams: 1 269220.pdf: 2196133 bytes, checksum: 93925260e165a3bb74448b2bcc1fa405 (MD5) / O aproveitamento de água pluvial para fins não potáveis em edificações é uma medida que proporciona a redução da demanda de água potável e a minimização de problemas relacionados à disponibilidade dos recursos hídricos. A eficiência dos sistemas de aproveitamento de água pluvial é afetada sobretudo pelo dimensionamento do reservatório de armazenamento. O dimensionamento adequado é essencial para evitar a operação do reservatório de forma ociosa quando superdimensionado ou insuficiente, quando subdimensionado. O objetivo principal deste trabalho é validar o algoritmo do programa computacional Netuno, utilizado para avaliar o potencial de economia de água potável e o dimensionamento de reservatórios para aproveitamento de água pluvial em edificações. Dados reais de consumo de água potável e pluvial, precipitação pluviométrica e da variação do nível de água no reservatório, foram obtidos junto a uma residência experimental localizada em Florianópolis. O monitoramento do sistema de aproveitamento de água pluvial da edificação ocorreu em quatro períodos distintos, totalizando 196 dias. Devido à ocupação variável da residência e, também, ao baixo consumo de água verificado em testes preliminares, foi necessário intervir na demanda de água pluvial, simulando a permanência constante de quatro moradores. Como referência para o cálculo da demanda diária de água pluvial, considerou-se uma demanda de água potável de 150 litros per capita por dia, e um percentual variando de 40 a 150% desta demanda conforme o período monitorado. Diariamente, descartou-se o volume correspondente à demanda de água pluvial através de um ponto de consumo dessa água. Uma versão modificada do algoritmo do programa Netuno foi proposta, onde a principal diferença em relação à versão original é a consideração do consumo de água pluvial antes da chuva. O estudo foi baseado em simulações computacionais para estimar o potencial de economia de água potável com os dados levantados em campo, considerando diferentes intervalos de tempo e as características físicas do sistema. Os resultados das simulações foram comparados à economia de água potável obtida através da utilização de água pluvial, para fins não potáveis, na residência estudada. As demandas médias de água pluvial efetivamente descartadas foram de 279, 293, 607 e 624 litros/dia, respectivamente, do primeiro ao quarto período monitorado. Os resultados do trabalho mostram potenciais de economia de água potável estimados pelo Netuno idênticos às economias obtidas na residência quando se dispõe de água em quantidade suficiente nos reservatórios, para atendimento integral da demanda de água pluvial. Por outro lado, quando não há água pluvial em quantidade suficiente para suprir a demanda, observam-se diferenças absolutas entre os potenciais estimados e as economias efetivas variando de 0,2 a 6,7%, para economias de água potável de 48,7 a 76,2%. A principal conclusão do trabalho é que o algoritmo do programa Netuno prediz adequadamente o potencial de economia de água potável obtido através do aproveitamento de água pluvial em edificações. / Rainwater use for non-potable purposes in buildings is a measure that provides the reduction of potable water demand and the minimization of problems related to availability of water resources. The efficiency of rainwater harvesting systems is affected mostly by the sizing of the storage cistern. The appropriate sizing is essential to avoid the superfluous room in the cistern when it is oversized; or insufficient room when it is undersized. The main objective of this research is to validate the algorithm of the Neptune computer programme, used to evaluate the potential for potable water savings and the sizing of cisterns for rainwater storage in buildings. Actual potable water and rainwater consumption, rainfall and variation of the water level in the cistern were obtained from an experimental house in Florianópolis. The monitoring of the rainwater harvesting system occurred in four different periods, totalling 196 days. Due to the variation of the house occupation, and also to the low water consumption verified in preliminary tests, it was necessary to increase the demand of rainwater, simulating the constant occupation of four residents. The daily demand of rainwater was taken as a percentage of the potable water demand, which was 150 litres per capita a day. Such a percentage was varied from 40 to 150% of the potable water demand, according to the monitored period. The volume corresponding to the rainwater demand was discarded daily. A modified version of the algorithm of Neptune was proposed, where the main difference in relation to the original version is the consideration of rainwater consumption before the rainfall. The study was based on computer simulations to evaluate the potential for potable water savings considering all data collected on site, considering different time intervals and the physical characteristics of the system. The results of the simulations were compared to the potable water savings obtained by using rainwater for non-potable purposes in the studied house. The average rainwater demands that were discarded were 279, 293, 607 and 624 litres a day, respectively, from the first to the fourth monitored period. The results of the study showed that the potential for potable water savings estimated by Neptune were identical to savings obtained in the house when there was enough rainwater in the cistern to fulfil the demand for rainwater. On the other hand, when there was not enough rainwater to supply the rainwater demand, absolute differences between Neptune results and the effective savings varied from 0.2 to 6.7%, for potable water savings ranging from 48.7 to 76.2%. The main conclusion obtained from the research is that the algorithm of the Neptune computer programme correctly predicts the potential for potable water savings by using rainwater in buildings.
219

Estudo evolutivo das percepções infantis no uso de ferramentas computacionais

Albino, Sirlei de Fátima January 2006 (has links)
Tese (Doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Engenharia de Produção / Made available in DSpace on 2013-07-16T03:11:17Z (GMT). No. of bitstreams: 0Bitstream added on 2013-07-16T19:58:49Z : No. of bitstreams: 1 225787.pdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Este trabalho apresenta um estudo evolutivo, norteado pelo método clinico piagetiano, onde quarenta crianças de primeira a quarta série, na faixa etária entre sete e dez anos, sendo dez crianças de cada idade, foram submetidas a seções de criação de textos manuscritos e digitados. Buscou-se desvendar o que acontece com o processo criativo de crianças quando estimulados a criar diretamente em um editor de textos. Foram criadas três categorias de análise: a relação criança x computador, a percepção infantil frente ao trabalho desenvolvido e a análise das produções textuais digitadas e manuscritas. Verificou-se, na primeira categoria, que estas crianças tem um profundo respeito pela máquina, acreditando ser ela a solução para vários problemas escolares, preocupa a influência dos jogos eletrônicos, que segundo Setzer, leva o ser humano a um processo de "animalização", bem como o uso indiscriminado da Internet, que prejudica o desenvolvimento da moral infantil, através das ações de plagiar material encontrado na rede. Na segunda categoria, de acordo com os princípios piagetianos, destaca-se o julgamento através da moral objetiva em crianças de sete e oito anos de idade, julgando o texto digitado melhor apenas em virtude de seu layout final, enquanto que nos indivíduos da faixa etária entre nove e dez anos, há a aplicação da moral subjetiva - segundo as intenções: conseguem diferenciar criticamente o texto digitado do manuscrito. Na terceira categoria constata-se o processo de reatividade que toma conta de crianças quando estão usando o computador. Concluindo destaca-se a identificação da moral heterônoma em crianças de sete e oito anos e da moral autônoma, nas idades de nove e dez anos. Destaca-se a relação de submissão que o computador desperta no indivíduo. Atribui-se ao educador a árdua tarefa de desmistificar este poder computacional, de proporcionar aos educandos, condições para desenvolver a capacidade de diferenciar e reconhecer as escalas de valores, de modo que, o indivíduo perceba como o seu papel no manuseio do computador é fundamental e não o contrário.
220

Sistema de apoio à decisão na produção de leite e queijo coalho com segurança alimentar / System to decision in the production of milk and cheese type Coalho with alimentary safety

Cavalcante, José Fernando Mourão 13 July 2005 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2016-11-09T18:08:30Z No. of bitstreams: 1 texto completo.pdf: 1202077 bytes, checksum: da97262dd18201917b205fc37458ea27 (MD5) / Made available in DSpace on 2016-11-09T18:08:30Z (GMT). No. of bitstreams: 1 texto completo.pdf: 1202077 bytes, checksum: da97262dd18201917b205fc37458ea27 (MD5) Previous issue date: 2005-07-13 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Os objetivos deste trabalho foram disponibilizar um sistema de apoio à decisão na produção de leite e de queijo coalho com segurança alimentar, para melhorar a qualidade da produção agroindustrial da agricultura familiar das pequenas queijarias artesanais da Região Nordeste do Brasil e desenvolver uma proposta de processamento do queijo Coalho artesanal a partir de leite pasteurizado e cultura lática endógena. Esse estudo foi realizado em duas etapas. Na primeira, foi desenvolvido um sistema de apoio à decisão constituído de um software multimídia, um boletim de extensão e duas cartilhas técnico-didáticas. O software multimídia, denominado Coalho Quality, foi desenvolvido por meio de parceria entre o Departamento de Tecnologia de Alimentos da Universidade Federal de Viçosa (DTA/UFV) e a Empresa Consulto ria e Desenvolvimento de Sistemas (Cientec) de Viçosa-MG. Foram realizadas quatro etapas no desenvolvimento do software: i) aquisição do conhecimento; ii) organização do conhecimento em módulos; iii) desenvolvimento do multimídia com a construção da interface; e iv) avaliação do software multimídia. O software foi avaliado por meio de um questionário específico por 30 avaliadores, sendo os dados analisados por métodos estatísticos descritivos, considerando-se as freqüências e as porcentagens das notas atribuídas para cada atributo julgado pelos avaliadores. O boletim de extensão foi elaborado com base na literatura disponível, com o objetivo de disponibilizar informações técnicas básicas sobre a produção de queijo Coalho artesanal com segurança alimentar. As cartilhas 1 e 2, denominadas “Produção de Leite com Qualidade na Fazenda” e “Como Produzir Queijo Coalho com Qualidade” respectivamente, foram elaboradas por meio de parceria entre o DTA/UFV e a empresa de design Studium. Inicialmente foram pesquisados o conhecimento científico e as informações técnicas relevantes que fariam parte das cartilhas. Estas informações foram discutidas com a empresa Studium, que deu suporte ao desenvolvimento do argumento , da estória e dos desenhos das cartilhas. O sistema de apoio à decisão na produção de leite e de queijo Coalho com segurança alimentar foi considerado pelos avaliadores um meio para se promover a qualidade no âmbito da produção artesanal de queijo Coalho no Nordeste brasileiro, agregando valor à produção da agricultura familiar. Na segunda etapa deste estudo isolaram-se as bactérias láticas endógenas do leite cru e do queijo Coalho artesanal. Realizou-se a avaliação tecnológica destas culturas láticas endógenas na Usina Piloto de Laticínios do DTA/UFV, sendo ta mbém avaliado a qualidade dos queijos produzidos com estas culturas. Os resultados da avaliação tecnológica demonstraram que os queijos Coalho apresentaram, de maneira geral, excelente qualidade. As características sensoriais do queijo Coalho produzido com os novos fermentos láticos, produzidos neste estudo, apresentaram características próximas as do queijo Coalho tradicional. O protocolo de fabricação do queijo Coalho proposto neste trabalho demonstrou que é possível padronizar o produto artesanal, reduzir custos com culturas láticas importadas, melhorar a qualidade microbiológica e manter as características sensoriais do queijo Coalho regional, empregando-se culturas láticas nacionais. / One of the objectives of this work was to make available a system which would support the decision concerning the production of milk and cheese type Coalho that conforms to safe feeding standards. This envisages improving the quality of agro-industrial products of domestic farms with the regard to the small cottage-industry cheese dairies in the North-East of Brazil. A further aim is to outline a scheme for processing cheese type Coalho from pasteurised milk and an endogenous lactic culture. This study was conducted in two stages. In the first stage a system to support the decision was devised which consisted of multimedia software, an extension report and two technical instruction handbooks. The software, which was called Quality Coalho, was the outcome of a partnership between the Food Technology Department of the Federal University of Viçosa (DTA/UFV) and the company Cientec (Empresa Consultoria e Desenvolvimento de Sistemas of Viçosa-MG). The software was developed in four stages: i) the acquisition of knowledge; ii) the organization of knowledge in modules; iii) the development of the multimedia with an interface construct; and iv) an assessment of the multimedia software. The assessment of the software was undertaken by means of a special questionnaire with 30 testing-points and the data was analysed by descriptive statistical methods. The assessors made an appraisal of the frequency and percentages of the scores obtained by each attribute. The extension report was worked out on the basis in the available literature and aimed at selecting basic technical information about feeding safety standards in the production of cheese type Coalho. Handbooks 1 and 2 called "Quality Milk Production on Farms" and "How to Produce Good Quality Cheese Type Coalho", respectively. They were prepared through a partnership between DTA/UFV and the design company, Studium. To start with, research was carried out to find the scientific knowledge and relevant technical information that would form a part of the handbooks. This information was then discussed with Studium, which prepared the ideas, stories and drawings of handbooks. The system supporting the decision concerning the production of milk and cheese type Coalho which conformed to safe feeding standards was regarded by the assessors as a means of improving quality in the area of cheese type Coalho production in the North-East of Brazil and raising the standard of domestic farming. The second stage of this study involved isolating endogenous lactic bacteria from untreated milk and cheese type Coalho. This was followed by a technical appraisal of the endogenous lactic cultures in the Pilot Plant of DTA/UFV Dairy Products together with an evaluation of the quality of cheese products. The results of this technical appraisal showed that, in general, the cheese type Coalho were of an excellent quality. With regard to sensory features, such as flavour, smell and texture of the cheese type Coalho with new lactic ferments had similar characteristics to the traditional cheese type Coalho of the region. The formula for producing cheese type Coalho, as outlined in this study, shows that it is possible to the following: standardise the products, reduce costs by means of imported lactic cultures, improve the micro- biological condition and preserve the sensory features of regional cheese type Coalho by using national lactic cultures.

Page generated in 0.0977 seconds