• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 448
  • 351
  • 229
  • 143
  • 95
  • 68
  • 48
  • 43
  • 16
  • 13
  • 10
  • 8
  • 7
  • 7
  • 4
  • Tagged with
  • 1714
  • 500
  • 441
  • 397
  • 242
  • 223
  • 197
  • 137
  • 135
  • 129
  • 120
  • 100
  • 100
  • 99
  • 96
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
611

Automating Fixture Setups Based on Point Cloud Data & CAD Model

January 2016 (has links)
abstract: Metal castings are selectively machined-based on dimensional control requirements. To ensure that all the finished surfaces are fully machined, each as-cast part needs to be measured and then adjusted optimally in its fixture. The topics of this thesis address two parts of this process: data translations and feature-fitting clouds of points measured on each cast part. For the first, a CAD model of the finished part is required to be communicated to the machine shop for performing various machining operations on the metal casting. The data flow must include GD&T specifications along with other special notes that may be required to communicate to the machinist. Current data exchange, among various digital applications, is limited to translation of only CAD geometry via STEP AP203. Therefore, an algorithm is developed in order to read, store and translate the data from a CAD file (for example SolidWorks, CREO) to a standard and machine readable format (ACIS format - *.sat). Second, the geometry of cast parts varies from piece to piece and hence fixture set-up parameters for each part must be adjusted individually. To predictively determine these adjustments, the datum surfaces, and to-be-machined surfaces are scanned individually and the point clouds reduced to feature fits. The scanned data are stored as separate point cloud files. The labels associated with the datum and to-be-machined (TBM) features are extracted from the *.sat file. These labels are further matched with the file name of the point cloud data to identify data for the respective features. The point cloud data and the CAD model are then used to fit the appropriate features (features at maximum material condition (MMC) for datums and features at least material condition (LMC) for TBM features) using the existing normative feature fitting (nFF) algorithm. Once the feature fitting is complete, a global datum reference frame (GDRF) is constructed based on the locating method that will be used to machine the part. The locating method is extracted from a fixture library that specifies the type of fixturing used to machine the part. All entities are transformed from its local coordinate system into the GDRF. The nominal geometry, fitted features, and the GD&T information are then stored in a neutral file format called the Constraint Tolerance Feature (CTF) Graph. The final outputs are then used to identify the locations of the critical features on each part and these are used to establish the adjustments for its setup prior to machining, in another module, not part of this thesis. / Dissertation/Thesis / Masters Thesis Mechanical Engineering 2016
612

Análise da adaptação marginal de facetas laminadas confeccionadas pela tecnologia CAD/CAM: estudo in vitro

Pereira, Duziene Denardini January 2016 (has links)
Made available in DSpace on 2016-04-08T03:07:20Z (GMT). No. of bitstreams: 1 000477935-Texto+Parcial-0.pdf: 597 bytes, checksum: 10775e484d6bf1f1e42f8cc96adb6e1c (MD5) Previous issue date: 2016 / The Computer-aided design/Computer-aided manufacturing (CAD/CAM) system has been widely used for the production of prosthetic restorations. The objective of this study was to analyze the marginal adaptation of veneers made by this technology using different restorative materials. To this they are milled 25 samples of laminates and divided into each following materials tested. Group 1: E-max (lithium disilicate); Group 2: Empress (leucite); Group 3: Lava Ultimate (ceromer); Group 4: Suprinity (lithium disilicate reinforced with zirconium oxide); and Group 5: Vita Mark II (feldspatic). The veneers were cemented in their respective preparations and then we obtained imagens in digital microscopy (Caltex Systems VZM-2003D Digital – Video Mensurement Inspection) with 7. 5X increase. They have been transferred to the software ImageTool for the analysis of marginal gap (mesial and distal; and the third cervical, middle and incisal). It was observed that the largest gap value found in the cervical region of the restoration was made with the Vita Mark II ceramic, and even though there was no statistically significant difference between the ceramic studied (p=0,2 mesial and p=0,4 distal), the incisal third had higher mismatches. It can be concluded that all the ceramics showed good marginal adaptation in the cervical region. / O sistema Computer-aided design/Computer-aided manufacturing (CAD/CAM) tem sido amplamente utilizado para a produção de restaurações protéticas. O objetivo deste trabalho foi analisar a adaptação marginal de facetas laminadas confeccionadas por esta tecnologia utilizando diferentes materiais restauradores. Para tal, foram fresadas 25 amostras de laminados e divididas em cada um dos seguintes materiais testados: Grupo 1: E-max (Dissilicato de lítio); Grupo 2: Empress (Leucita); Grupo 3: Lava Ultimate (Cerômero); Grupo 4: Suprinity (Dissilicato de lítio reforçado com óxido de zircônio) e Grupo 5: Vita Mark II (Feldspática). As facetas laminadas foram cimentadas nos seus respectivos preparos e, então, foram obtidas imagens em microscopia digital (Caltex Systems VZM-2003D Digital – Video Mensurement Inspection) com 7. 5X de aumento. As mesmas foram transferidas para o programa ImageTool para a análise do gap marginal (faces mesial e distal; nos terços cervical, médio e incisal). Observou-se que o maior valor de gap encontrado na região cervical foi da restauração confeccionada com a cerâmica Vita Mark II e, mesmo não havendo diferença estatisticamente significante entre as cerâmicas estudadas (p=0,2 mesial e p=0,4 distal), o terço incisal obteve maiores desadaptações. Pode-se concluir que todas as cerâmicas apresentaram boa adaptação marginal na região cervical.
613

Procedimentos legais e protocolos sobre a sistem?tica de aquisi??o de cad?veres na Universidade Federal do Rio Grande Do Norte para o ensino de anatomia humana

Camara, Celcimar Alves 10 April 2015 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2017-02-17T18:42:13Z No. of bitstreams: 1 CelcimarAlvesCamara_DISSERT.pdf: 3341824 bytes, checksum: ef80439ea1b53bc24894ebd0b2c2c77e (MD5) / Approved for entry into archive by Monica Paiva (monicalpaiva@hotmail.com) on 2017-02-17T18:51:22Z (GMT) No. of bitstreams: 1 CelcimarAlvesCamara_DISSERT.pdf: 3341824 bytes, checksum: ef80439ea1b53bc24894ebd0b2c2c77e (MD5) / Made available in DSpace on 2017-02-17T18:51:22Z (GMT). No. of bitstreams: 1 CelcimarAlvesCamara_DISSERT.pdf: 3341824 bytes, checksum: ef80439ea1b53bc24894ebd0b2c2c77e (MD5) Previous issue date: 2015-04-10 / A disponibilidade de cad?veres para estudo e pesquisa vinha sendo feita tradicionalmenteutilizando-se corpos n?o reclamados sem grandes formalidades. Com a complexidadejur?dica, social, ?tica e moral dos tempos atuais, o simples encaminhamento dessescorpos ao Departamento de Morfologia da Universidade Federal do Rio Grande do Norte,passou a ser temido com o receio de transgredir a legisla??o penal. Isso desencadeouuma redu??o no n?mero de cad?veres para as aulas pr?ticas de Anatomia. Essarealidade levou o Departamento de Morfologia da Universidade Federal do Rio Grande doNorte a pesquisar mecanismos legais que solucionassem a escassez de cad?veres parao estudo e pesquisa. A metodologia utilizada constou de reuni?es de discuss?o eapresenta??o de protocolos de aquisi??o de cad?veres com base na legisla??o vigente.Os resultados obtidos foram: (1) Publica??o do provimento 093/2012 da CorregedoriaGeral da Justi?a do Tribunal de Justi?a do Estado do Rio Grande do Norte, que disp?esobre o registro de ?bito dos cad?veres destinados ?s escolas de Medicina para fins deensino e pesquisa; (2) Elabora??o de protocolos para aquisi??o de cad?veres n?oreclamados junto ?s institui??es; (3) Programa de doadores volunt?rios na UniversidadeFederal do Rio Grande do Norte.Por fim, conclu?mos que o conhecimento das atribui??espor parte das institui??es p?blicas e privada, bem como o programa de doa??o volunt?riaaumentaram a oferta de cad?veres para o ensino da Anatomia Humana na UniversidadeFederal do Rio Grande do Norte. / A disponibilidade de cad?veres para estudo e pesquisa vinha sendo feita tradicionalmenteutilizando-se corpos n?o reclamados sem grandes formalidades. Com a complexidadejur?dica, social, ?tica e moral dos tempos atuais, o simples encaminhamento dessescorpos ao Departamento de Morfologia da Universidade Federal do Rio Grande do Norte,passou a ser temido com o receio de transgredir a legisla??o penal. Isso desencadeouuma redu??o no n?mero de cad?veres para as aulas pr?ticas de Anatomia. Essarealidade levou o Departamento de Morfologia da Universidade Federal do Rio Grande doNorte a pesquisar mecanismos legais que solucionassem a escassez de cad?veres parao estudo e pesquisa. A metodologia utilizada constou de reuni?es de discuss?o eapresenta??o de protocolos de aquisi??o de cad?veres com base na legisla??o vigente.Os resultados obtidos foram: (1) Publica??o do provimento 093/2012 da CorregedoriaGeral da Justi?a do Tribunal de Justi?a do Estado do Rio Grande do Norte, que disp?esobre o registro de ?bito dos cad?veres destinados ?s escolas de Medicina para fins deensino e pesquisa; (2) Elabora??o de protocolos para aquisi??o de cad?veres n?oreclamados junto ?s institui??es; (3) Programa de doadores volunt?rios na UniversidadeFederal do Rio Grande do Norte.Por fim, conclu?mos que o conhecimento das atribui??espor parte das institui??es p?blicas e privada, bem como o programa de doa??o volunt?riaaumentaram a oferta de cad?veres para o ensino da Anatomia Humana na UniversidadeFederal do Rio Grande do Norte.
614

Alogliptina : caracterização, estudo de compatibilidade, validação de metodologia analítica e estudo de estabilidade para avaliação da qualidade / Alogliptin : characterization, compatibility study, validation of analytical methodology and stability study for quality assessment

Bertol, Charise Dallazem January 2017 (has links)
Alogliptina (ALG) é um hipoglicemiante oral, que inibe a enzima dipeptidil peptidase – 4 (DPP-4) com alta seletividade e aumenta a secreção de insulina prevenindo a hiperglicemia prandial. Como ALG não está descrita nas farmacopeias, este trabalho objetivou caracterizar a matéria-prima (Capítulo I), desenvolver métodos analíticos (Capítulo II) e avaliar sua estabilidade (Capítulo III), auxiliando no controle de qualidade. No capítulo I, a ALG foi caracterizada através de calorimetria exploratória diferencial (DSC), termogravimetria (TGA) e microscopia eletrônica de varredura (SEM) acoplada a espectrômetro de raios X por dispersão de energia (EDS). A compatibilidade entre a ALG e os excipientes presentes nos comprimidos foi avaliada por DSC, TGA, infravermelho com transformada de Fourier (FTIR), difração de raios-X de pó (XRPD) e microscopia com estágio de aquecimento. ALG apresentou pureza próxima a 99%, com faixa de fusão entre 179,4 e 187,2 °C (pico em 183,3 °C), seguida por decomposição que iniciou em 198,0 °C. Na SEM/EDS, os cristais de ALG mostraram-se predominantemente irregulares e foram detectados traços de impurezas (chumbo e cobre). Alterações na temperatura de fusão da ALG com manitol, estearato de magnésio e nos comprimidos comerciais foram observadas. A microscopia com aquecimento demonstrou que a interação entre manitol e ALG e nos comprimidos é devida à solubilização do fármaco no excipiente fundido, enquanto que na mistura com o estearato de magnésio é devida à fusão do excipiente e do fármaco que ocorrem separadamente, onde o excipiente funde antes que o fármaco. FTIR e XRPD das misturas não detectaram incompatibilidades, somente o aparecimento de bandas adicionais relacionadas aos excipientes. ALG foi compatível com todos os excipientes testados. Estes resultados são importantes para caracterizar, conhecer a estabilidade e a compatibilidade do fármaco. No capítulo II, foram desenvolvidos e validados métodos de cromatografia líquida (LC) indicativos de estabilidade utilizando dois detectores, ultravioleta (UV) e detector de aerossol carregado (CAD) para análise de ALG em comprimidos. Foi utilizada uma coluna C8 (250 mm x 4,6 mm, 5 μm) em modo isocrático, fluxo de 0,8 mL min-1, utilizando acetonitrila e tampão acetato de amônio 10 mM pH 3,5 ajustado com ácido acético (90:10, v/v) como fase móvel e detecção no UV em 275 nm. Os métodos foram lineares no intervalo de 25 - 200 μg mL-1 em ambos os detectores. Os limites de detecção foram de 2,65 e 6,25 μg mL-1 e os de quantificação de 8,84 e 20,85 μg mL-1, respectivamente, para UV e CAD. Os métodos foram precisos e exatos, com desvio padrão relativo menor que 3% e percentuais de recuperação próximos a 100%. Nenhum dos excipientes, ou produtos de degradação interferiu na detecção do fármaco durante os estudos de especificidade. No ensaio de robustez, pequenas alterações no fluxo de fase móvel, pH e concentração de solvente orgânico não afetou significativamente os resultados. O doseamento dos comprimidos obtido com ambos detectores não mostrou diferenças entre si. Os métodos podem ser considerados intercambiáveis e podem ser aplicados como ferramentas para o controle de qualidade de rotina de comprimidos de ALG. No capítulo III foi avaliada a estabilidade térmica da ALG utilizando TGA isotérmica e não isotérmica, e degradação em estufa, analisando as amostras por LC-UV. Na TGA isotérmica a ALG foi submetida a 150, 155, 160, 165, 170 °C, até perda de massa de 10% e os dados foram analisados pelo método de Arrhenius. Na TGA não isotérmica variaram-se as razões de aquecimento, utilizando 2,5, 5,0, 10,0 e 15,0 °C/min até 500 °C. Os dados foram analisados pelo método de Ozawa e de Kissinger. Na degradação em estufa o fármaco foi submetido as temperaturas de 130, 140, 150, 155, 160 e 170 °C. Os parâmetros cinéticos foram obtidos por Arrhenius. ALG segue degradação de zero ordem, onde a velocidade de degradação independe da concentração do reagente. A perda de massa está relacionada à perda química. Os parâmetros cinéticos variaram de acordo com o modelo matemático aplicado. A energia de ativação variou de 26 a 45 kcal/mol. O fármaco degradado demonstrou ser menos tóxico em ensaio de citotoxicidade em células CRIB do que o fármaco não degradado. Os métodos desenvolvidos e a caracterização realizada mostram-se úteis para o adequado controle de qualidade do fármaco. / Alogliptin (ALG) is an oral hypoglycemic agent, which inhibits the enzyme dipeptidyl peptidase - 4 (DPP-4) with high selectivity and increase insulin secretion, preventing postprandial hyperglycemia. ALG is not described in any pharmacopeia. In this context, this study aimed to characterize the active pharmaceutical ingredient (Chapter I), to developed assay methods (Chapter II) and to evaluate the stability (Chapter III), assuring the adequate quality control. In Chapter I, ALG was characterized by differential scanning calorimetry (DSC), thermogravimetry (TGA) and scanning electron microscopy (SEM) coupled with energy dispersive spectrometer X-ray (EDS). The compatibility between ALG and the excipients present in the commercial tablets was evaluated by DSC, TGA, Fourier transform infrared (FTIR), X-ray powder diffraction (XRPD) and hot stage microscopy. ALG presented purity close to 99%, with a melting range between 179.4 to 187.2 °C (peak at 183.33 °C), followed by decomposition which began at 198 °C. In the SEM/EDS the crystals of ALG were predominantly irregulars and it were detected traces of impurities (lead and copper). Alterations in melting temperature of ALG with mannitol, magnesium stearate and in tablets were observed. The hot stage microscopy showed that the interactions between mannitol and ALG and in the tablets were due to the solubilization of the drug in the fused excipient, and in the mixture with magnesium stearate, it was due to the melting of the drug and excipient separately, where the excipient started the melting prior of the drug. FTIR and XRPD of the mixtures did not detect incompatibilities, only the appearance of additional bands related to the excipients. ALG was compatible with all excipients tested. These results are important to characterize, to know the drug stability and compatibility. In Chapter II, liquid chromatography (LC) methods indicative of stability were developed and validated using two detectors, ultraviolet (UV) and charged aerosol detector (CAD) for ALG tablets. It was used a C8 column (250 mm x 4.6 mm, 5 um) in isocratic mode, flow rate of 0.8 ml min-1 using acetonitrile and ammonium acetate buffer 10 mM, pH 3.5 adjusted with acid acetic acid (90:10, v/v) as mobile phase and UV detection at 275 nm. The methods were linear in the range of 25 - 200 μg ml-1 in both detectors. Limits of detection were 2.65 and 6.25 μg mL-1, and of quantification were 8.84 and 20.85 μg mL-1, respectively, for UV and CAD. The methods were accurate and precise, with a relative standard deviation lower than 3% and recovery close to 100%. None of the excipients or degradation products showed interference in the drug detection during specificity studies. In the robustness test, small changes in the mobile phase flow, pH and organic solvent concentration did not significantly affect the results. The results for tablets obtained with both detectors showed no differences. The methods may be considered interchangeable, and they can be used as tools for routine quality control of ALG tablets. In Chapter III the thermal stability of the ALG was evaluated using isothermal and non-isothermal TGA, as well as oven, and samples were analyzed by LC-UV. In the isothermal TGA the ALG was subjected to 150, 155, 160, 165, 170 °C until a mass loss of 10% and the data were analyzed by the Arrhenius method. In non-isothermal TGA the heating rates were varied using 2.5, 5.0, 10.0 and 15.0 °C/min until 500 °C. Data were analyzed by the Ozawa and Kissinger method. In oven the drug was subjected to 130, 140, 150, 155, 160, and 170 °C. The kinetic parameters were obtained by Arrhenius. ALG follows zero-order degradation, where the rate of degradation is independent of the concentration of any reagent. Mass loss is related to chemical reactions. The kinetic parameters varied according to the applied mathematical model. The activation energy ranged from 26 to 45 kcal / mol. The degraded drug was shown to be less toxic in cytotoxicity assay using CRIB cells than the non-degraded drug. The methods developed and the characterization performed proved to be useful for adequate quality control tests of the drug.
615

Posicionamento visando redução do comprimento das conexões / Placement to improve wirelength and runtime

Pinto, Felipe de Andrade January 2011 (has links)
Este trabalho será focado no problema de posicionamento de células lógicas em circuitos integrados. Neste problema necessitamos organizar as portas lógicas reduzindo o comprimento dos fios que as conectam da melhor forma possível. Para entender o problema e as soluções existentes é descrita uma explanação sobre técnicas e algoritmos que são utilizados atualmente ou que são historicamente importantes, de forma a conduzir o texto para as técnicas apresentadas neste trabalho. As técnicas que serão apresentadas neste trabalho têm objetivos individualmente diferentes, porém conduzem a novos resultados e perspectivas em posicionamento. Todas as técnicas são baseadas na modificação e análise do grafo do posicionamento. Neste trabalho serão apresentadas quatro técnicas para melhorar a solução do problema de posicionamento. O primeiro trabalho a ser apresentado será a Critical Star que aplicado alguns nodos e arestas extras no grafo original para reduzir os caminhos críticos. A segunda técnica é a Logical Core I, ela traz um novo método de análise da dificuldade de posicionar um circuito VLSI. A terceira técnica, que tem forte conexão com a segunda, é a Logical Core II, mais focada em tempo de execução da técnica, ela gera um vetor com todas as dificuldades de posicionar cada célula no circuito. As duas técnicas aumentam o conhecimento do posicionador a respeito do problema e com isso vão de encontro a um ponto muito importante e ainda pouco abordado, a evolução da controlabilidade no posicionamento. A quarta técnica que será apresentada é a Logical Cluster. É uma técnica baseada na Logical Core II, e foi desenvolvida para otimizar os posicionadores já existentes no estado da arte. A técnica é muito eficiente e reduz o tempo de execução do posicionamento e muitas vezes reduz o comprimento de fio. / This work is focused on placement problem of VLSI circuits. The goal is organize the logic gates reducing the total wirelength that connect them. A non-effective placement assignment will not only affect the circuit performance but might also make it non-manufacturable by producing excessive wirelength. Then the next step in the assembly line, the routing problem could be insolvable. In this work will be presents four differents techniques. The techniques are based on changing the graph to improve the placement results. The first one is the Critical Star that applies some extra nodes and edges to reduce the critical paths. The second algorithm is the Logical Core I which brings a new method to analyze the circuit hardness to place a circuit. The third algorithm is called Logical Core II and the focus is generate a vector with hardness to place each cell in the circuit, and increasing the placer information about the problem. The Logical Core I and II, both improving the possibility to compare the hardnesses, in different abstraction levels, and improve the placement controllability. The fourth algorithm is a fast algorithm, based on use the Logical Core II, it creates an effective clustering technique to improve the state-of-art placers results. Reducing the runtime and sometimes improving the wirelength results.
616

Chip Level Implementation Techniques for Radiation Hardened Microprocessors

January 2013 (has links)
abstract: Microprocessors are the processing heart of any digital system and are central to all the technological advancements of the age including space exploration and monitoring. The demands of space exploration require a special class of microprocessors called radiation hardened microprocessors which are less susceptible to radiation present outside the earth's atmosphere, in other words their functioning is not disrupted even in presence of disruptive radiation. The presence of these particles forces the designers to come up with design techniques at circuit and chip levels to alleviate the errors which can be encountered in the functioning of microprocessors. Microprocessor evolution has been very rapid in terms of performance but the same cannot be said about its rad-hard counterpart. With the total data processing capability overall increasing rapidly, the clear lack of performance of the processors manifests as a bottleneck in any processing system. To design high performance rad-hard microprocessors designers have to overcome difficult design problems at various design stages i.e. Architecture, Synthesis, Floorplanning, Optimization, routing and analysis all the while maintaining circuit radiation hardness. The reference design `HERMES' is targeted at 90nm IBM G process and is expected to reach 500Mhz which is twice as fast any processor currently available. Chapter 1 talks about the mechanisms of radiation effects which cause upsets and degradation to the functioning of digital circuits. Chapter 2 gives a brief description of the components which are used in the design and are part of the consistent efforts at ASUVLSI lab culminating in this chip level implementation of the design. Chapter 3 explains the basic digital design ASIC flow and the changes made to it leading to a rad-hard specific ASIC flow used in implementing this chip. Chapter 4 talks about the triple mode redundant (TMR) specific flow which is used in the block implementation, delineating the challenges faced and the solutions proposed to make the flow work. Chapter 5 explains the challenges faced and solutions arrived at while using the top-level flow described in chapter 3. Chapter 6 puts together the results and analyzes the design in terms of basic integrated circuit design constraints. / Dissertation/Thesis / M.S. Electrical Engineering 2013
617

Konstruktion av testrigg för utmattningsprovning : Från definiering av testmetod till konstruktionsunderlag / Design of a testrig for fatigue testing

Müllback, Rasmus January 2018 (has links)
On behalf of and in collaboration with Valmet AB this thesis has been fulfilled and executed at their development department in Sundsvall. Valmet AB design, develop and manufacture machines and equipment for the pulp, paper and energy industry. One of their key products is the TwinRoll press. The TwinRoll press consist, among others, of a part called mantle section which in terms of manufacturing is rather complex. This part itself consists of frame ribs, which during operation endure high loads in a high amount of cycles during its life-span. Due to this, fatigue failure sometimes occurs, which in consequence causes mantle section failure. Theoretical determination of the fatigue strength has been proven difficult, which has created needs for experimental fatigue testing. The goal with the thesis was to define a method for fatigue testing and to design and develop a rig which could perform the testing according to the defined method. The initial part of the project consisted of a literature study about fatigue testing and how it normally is performed. Then the work with the test method started and the loads during normal operation was specified, as well as parameters that might affect the test results. This part was important as the parameters could be transformed into requirements which the test rig needed to satisfy. When the method for testing and the measurable requirements were done, concepts were generated via individual sketching and brainstorming. A final concept was chosen for detailed design in SolidWorks after using methods like voting and Pugh’s concept selection matrix. The rig was modelled and drawings for manufacturing was produced, and then dimensioned through both simulations with FEM and calculations by hand. The final construction was then inspected with VR-technology. The conclusion of the thesis was that the frame ribs should, as a suggestion, be fatigue tested with constant stress amplitudes until failure, and then repeated for other stress values until the amount of generated data is enough for evaluation in a stress-number-diagram. A Wöhler-curve should then be generated for desired probability of failure and finally be evaluated in a Haigh-diagram. The developed test rig will perform testing on one frame rib at a time with a high frequency hydraulic cylinder, were the sample used is a piece of the mantle section. Furthermore, the sample is fixed in both directions to correspond to stress generated by shrinkage which an entire frame rib normally withstands.
618

Förändringar i informationshanteringen med användandet av molntjänster : Förändringsanalys hos ett företag inom retailbranschen / Changes in information management with the use of cloud services

Ruist, Sofia, Nehl, Andreas January 2016 (has links)
Den här studien, som har bedrivits i samarbete med konsultföretaget Pipe, har studerat informationshanteringsprocessen hos småföretag inom retailbranschen. Företaget som ägnar sig åt butiksplanering med hjälp av CAD-program har idag ingen koppling mellan CAD-programmet och den molndatabas som lagrar information. Syftet med arbetet är att beskriva hur ett åtgärdsförslag skulle kunna se ut för att företaget ska kunna förbättra sin informationshantering genom användandet utav en molndatabas. Vi har även beskrivit problemområdet kring kopplingar mellanmolndatabaser och designprogram. För att besvara studiens syfte har vi genomfört en fallstudie, och svaret på forskningsfrågorna, 1. Hur ser informationshanteringsprocessen ut idag? 2. Hur kan informationshanteringsprocessen förbättras? 2. Vilka arbetssteg skulle kunna tas bort om företaget inför en koppling mellanmolndatabasen och designprogrammet? 3. Är en molnbaserad lösning ett möjligt alternativ för att använda för småföretag i retailbranschen? 4. Hur ser det ut i andra branscher som använder sig av CAD-program? Har vi hittat genom att genomföra intervjuer. Intervjuerna har hjälpt oss att genomföra en förändringsanalys där vi genom handlingsgrafer och mål- och problemlistor har kommit fram till ett antal åtgärdsförslag som företaget bör genomföra för att förbättra sin informationshanteringsprocess. Utifrån förändringsanalysen har vi kunnat dra slutsatsen att informationshanteringsprocessen skulle kunna förbättras och snabbas upp genom att införa en koppling mellan designprogrammet och en molndatabas. Detta skulle innebära att material automatiskt laddas upp från designprogrammet tillmolndatabasen, som även kunden har tillgång till. På så sätt samlas all information på ett och samma ställe. Genom litteraturstudier har vi också kommit fram till att en molnbaserad lösning vore möjligt för företaget, då det är en billig och smidig lösning för företag som inte har så stora resurser. / This study, which was conducted in collaboration with the consulting firm Pipe, studied information management processes of small businesses in the retail industry. The company dedicated to design store using CAD software today has no connection between the CAD program and the clouddatabase that stores information. The aim is to explore how the proposed measures might take for the company to improve their information management through the use out of a clouddatabase. We have also described the problem area of the connections between the cloudatabases and design applications. To answer the study's end, we conducted a case study and answer research questions, 1. How does the information management process work today? 2. How can the information management process be improved? 2. What work steps could be taken away if the company faced a link between the clouddatabase and design software? 3. Is a cloud-based solution suitable to use for small businesses in the retail industry? 4. What is the situation in other industries that use CAD software? We found by conducting interviews. The interviews helped us to implement a change analysis in which we act through graphs and goal- and problem lists have come up with a number of proposed measures that the company should implement to improve their information management process. Based on the analysis of change, we have to conclude that the information process could be improved and speeded up by introducing a link between design software and a clouddatabase. This would mean that the material is automatically uploaded from your design software to the clouddatabase, which is also the customer has access to. In this way, gather all the information in one place. Through literature studies, we have also come to the conclusion that a cloud-based solution would be appropriate for the company, since it is a cheap and convenient solution for companies that do not have as many resources.
619

O lugar do computador na mesa do arquiteto : uma mirada sobre os recursos informáticos no aprendizado do projeto arquitetônico

Aliaga Fuentes, Maribel Del Carmen January 2004 (has links)
O trabalho tem como objetivo estudar as repercussões do emprego de recursos informáticos aplicados ao projeto arquitetônico e da sua interação com o usuário. A relação entre computação gráfica e projeto arquitetônico é um assunto já bastante discutido, seja como a aplicação do potencial matemático da ferramenta para a composição das formas, ou ainda, como experimentações no campo da realidade virtual. No entanto, sob o ponto de vista do projeto arquitetônico e da sua apropriação da ferramenta pouco se tem dito, é nesta lacuna que a dissertação pretende se inserir. Desenvolvo a questão em duas partes principais. A primeira tem o objetivo de situar o leitor no assunto proposto, procurando possíveis repostas para relação entre usuário/projeto/máquina. A segunda parte se concentra no projeto arquitetônico como forma de investigação, amparada em um estudo de caso, resultado da observação do atelier. Procuro tecer as relações entre o projeto dos alunos, como resposta às instruções dos professores, e o uso da computação gráfica na composição do projeto.
620

Um Estudo de técnicas de aceleração para algoritmos de análise de timing funcional baseados em geração automática de teste

Pinto, Ana Cristina Medina January 2002 (has links)
Este trabalho tem como objetivo estudar e avaliar técnicas para a aceleração de algoritmos de análise de timing funcional (FTA - Functional Timing Analysis) baseados em geração automática de testes (ATPG – Automatic Test Generation). Para tanto, são abordados três algoritmos conhecidos : algoritmo-D, o PODEM e o FAN. Após a análise dos algoritmos e o estudo de algumas técnicas de aceleração, é proposto o algoritmo DETA (Delay Enumeration-Based Timing Analysis) que determina o atraso crítico de circuitos que contêm portas complexas. O DETA está definido como um algoritmo baseado em ATPG com sensibilização concorrente de caminhos. Na implementação do algoritmo, foi possível validar o modelo de computação de atrasos para circuitos que contêm portas complexas utilizando a abordagem de macro-expansão implícita. Além disso, alguns resultados parciais demonstram que, para alguns circuitos, o DETA apresenta uma pequena dependência do número de entradas quando comparado com a dependência no procedimento de simulação. Desta forma, é possível evitar uma pesquisa extensa antes de se encontrar o teste e assim, obter sucesso na aplicação de métodos para aceleração do algoritmo.

Page generated in 0.055 seconds