• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 60
  • 42
  • 29
  • 15
  • Tagged with
  • 154
  • 154
  • 60
  • 56
  • 45
  • 36
  • 34
  • 31
  • 25
  • 24
  • 20
  • 19
  • 19
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Fatores intervenientes na produção da notícia e seus impactos na qualidade da informação

Villar, Fabíola Bach January 2017 (has links)
A imprevisibilidade dos acontecimentos que se transformarão em notícia e a necessidade de cumprir um horário de fechamento diário tornam o trabalho em redação de jornal uma atividade sob a constante pressão de fatores internos e externos. Premidos pelo tempo, a todo instante editores precisam decidir rapidamente se apostam ou não em um fato como notícia, que grau de complexidade darão à pauta, se o repórter vai para a rua buscar informações, quantas e quais pessoas devem ser ouvidas, qual espaço o assunto irá ocupar na edição. E, principalmente, como garantir que o resultado dessas decisões seja uma informação de qualidade, correta, imparcial e com credibilidade. Neste contexto, esta dissertação tem a finalidade de contribuir para a identificação de quais fatores afetam a produção de uma notícia, impactando na qualidade da informação que chega ao leitor. A partir de uma abordagem transdisciplinar, com conceitos teóricos das áreas de Comunicação, Gestão de Processos e Qualidade da Informação, se constituiu um estudo de caso fundamentado por meio de pesquisa de natureza aplicada. Inicialmente, foi realizado um mapeamento do processo em uma Redação de jornal impresso, buscando identificar fluxos de produção e pontos críticos. Em um segundo momento, foram ouvidos sete editores que atuam na empresa, utilizando o Método Delphi, com o objetivo de entender quais são as principais interferências no dia a dia da Redação e como elas afetam o texto jornalístico. Ao analisar o impacto do tempo na produção do jornal, os entrevistados reconhecem prejuízos especialmente na etapa de apuração dos fatos, quando o repórter coleta informações e realiza entrevistas. Também destacam a importância da etapa de checagem de dados. O resultado são notícias publicadas sem contextualização, com imprecisão ou erro nas informações e textos inconsistentes. Em relação à rotina dos repórteres, ficou evidenciado que as maiores dificuldades estão em obter um ângulo diferente da notícia e ter acesso a fontes e dados dentro do prazo disponível. Entender os fatores intervenientes na produção da notícia e antecipar-se a eles permite garantir aos jornalistas elaborarem com mais frequência a notícia ideal, definida pelos entrevistados como aquela que tem contextualização, pluralidade, interpretação e criatividade. / The unpredictability of events that will be converted into news, and the need to comply with daily deadlines turn the newspaper newsroom work into an activity under constant pressure by internal and external factors. At all times, editors have to make several quick decisions, such as whether they bet on a given fact as news, whether the reporter will gather information in the streets or contact the sources by telephone, the best approach for the event, how many and what sort of people must be heard, where to collect data, how to write clearly and attractively for the reader. Moreover, how to guarantee that such decisions will result in accurate, unbiased and reliable information. Within this context, this thesis aims at contributing to the identification of internal and external factors that affect news production, and impact the quality of information that reaches the reader. Resting on a transdisciplinary approach, and employing theoretical concepts from the Communication, Process Management, and Information Quality areas, a case study was built based on applied research. Firstly, the process in a print newspaper newsroom was mapped seeking to identify production flows and critical points. In a second moment, by using Delphi Method seven editors who work in the company were heard with the objective to understand the overriding interferences in the newsroom daily activities, and how they affect the journalistic text. When analyzing the impact of time on newspaper production, the interviewees recognize harmful effects specially during the stage of fact ascertainment, when the reporter collects information and conducts interviews. The editors also highlight the significance of the data cheking stage. The outcome will be non-contextualized news, innacurate or mistaken information and text inconsistency. Regarding the reporters routine, it is evident that the biggest difficulties are in obtaining a different angle from a given piece of news, and gaining access to sources and data within the available time span. Understanding the intervening factors of news production, and being ahead of them might assure to journalists the development of the ideal piece of news more often, which according to the interviewees is that one containing contextualization, plurality, interpretation and creativity.
32

Řízení procesů obchodního oddělení ČZ a.s. / Process management in the Sales department ČZ a.s.

URBÁNEK, Milan January 2018 (has links)
The main object of this master's thesis is to introduce process management and then apply it on a real company. The aim of the theoretical part was to define terms used in process management and describe it from different perspectives. An outline of the history of process management has offered insights into the personalities and the companies that have played a part in how the process management has arisen, and therefore how it looks today. Business process improvement and implementing business management have been the subjects of further theoretical subchapters. These methodologies included reengineering, Kaizen, TOC, Lean, Six Sigma. Process mapping is described in the end of the theoretical part. The theoretical knowledge was then applied in the practical part of this thesis. Firstly the company ČZ a.s. was introduced. However the domain of this thesis have become a mapping and describing of business processes in the company mainly in the Sales Department of the Tools Division. The conclusion is how to change the process of Order management in the Sales Department and how it will affect the Tools Division.
33

O MAPEAMENTO DOS PROCESSOS ORÇAMENTÁRIOS DO CENTRO DE CIÊNCIAS DA SAUDE DA UNIVERSIDADE FEDERAL DE SANTA MARIA (UFSM) / MAPPING OF BUDGET PROCESSES IN THE HEALTH SCIENCE CENTER OF UNIVERSIDADE FEDERAL DESANTA MARIA (UFSM)

Silva, Rochele Santos 29 March 2016 (has links)
The budget management is a challenge for the public organization, which needs to adapt itself to a new model of administration behavior. At UFSM, Education Centers administrative funds allocated by the central administration. This study was conducted at Health Sciences Center (CCS) and aimed to analyze the budget understanding by the sub-units managers, as well as to map the budget process at UFSM. We conduct a descriptive and qualitative survey through a case study interviewing seventeen (17) sub-units managers. The interview consisted of 21 questions about knowledge and the planning of the budget. The results showed the need to improve the transparency of actions and provide the sub-units managers with adequate information and tools for the accomplishment of their tasks. It is also necessary to make less complex the process regarding resources allocation from the Central Administration to Education Centers and from these to their sub-units. / A administração pública passa por um momento de ajustes a fim de se adaptar a um novo modelo de gestão. Dentre os seus objetos de estudo está o orçamento público. Na UFSM, os recursos orçamentários são distribuídos a cada centro de ensino para que esse realize o gerenciamento. O presente estudo buscou analisar a percepção dos chefes de departamento do Centro de Ciências da Saúde sobre o processo que envolve o orçamento e seu mapeamento dentro da UFSM. Para isso, realizou-se uma pesquisa do tipo descritiva, qualitativa quanto ao método e classificada como um estudo de caso dentre os gestores das subunidades do CCS, o que totaliza a realização de 17 (dezessete) entrevistas. Como instrumento de coleta de dados adotou-se a realização de entrevistas, compostas ao total por 21 questões, que abordaram o planejamento orçamentário e o conhecimento sobre o orçamento. Os resultados mostraram que a instituição precisa aprimorar a transparência de suas ações e capacitar os gestores visto que muitos sentem falta de instrumentos que auxiliem suas gestões. Devem ser feitas ações para melhorar o nível de transparência entre a reitoria da UFSM e centros de ensino, bem como destes com as suas unidades administrativas no que tange a distribuição de recursos.
34

Methods for the Expansion of Additive Manufacturing Process Space and the Development of In-Situ Process Monitoring Methodologies

Scime, Luke Robson 01 May 2018 (has links)
Metal Additive Manufacturing (AM) promises an era of highly flexible part production, replete with unprecedented levels of design freedom and inherently short supply chains. But as AM transitions from a technology primarily used for prototyping to a viable manufacturing method, many challenges must first be met before these dreams can become reality. In order for machine users to continue pushing the design envelope, process space must be expanded beyond the limits currently recommended by the machine manufacturers. Furthermore, as usable process space expands and demands for reduced operator burden and mission-critical parts increase, in-situ monitoring of the processes will become a greater necessity. Processing space includes both the parameters (e.g. laser beam power and travel velocity) and the feedstock used to build a part. The correlation between process parameters and process outcomes such as melt pool geometry, melt pool variability, and defects should be understood by machine users to allow for increased design freedom and ensure part quality. In this work, an investigation of the AlSi10Mg alloy in a Laser Powder Bed Fusion (L-PBF) process is used as a case study to address this challenge. Increasing the range (processing space) of available feedstocks beyond those vetted by the machine manufacturers has the potential to reduce costs and reassure industries sensitive to volatile global supply chains. In this work, four non-standard metal powders are successfully used to build parts in an L-PBF process. The build quality is compared to that of a standard powder (supplied by the machine manufacturer), and correlations are found between the mean powder particle diameters and as-built part quality. As user-custom parameters and feedstocks proliferate, an increased degree of process outcome variability can be expected, further increasing the need for non-destructive quality assurance and the implementation of closed-loop control schema. This work presents two Machine Learning-based Computer Vision algorithms capable of autonomously detecting and classifying anomalies during the powder spreading stage of L-PBF processes. While initially developed to serve as the monitoring component in a feedback control system, the final algorithm is also a powerful data analytics tool – enabling the study of build failures and the effects of fusion processing parameters on powder spreading. Importantly, many troubling defects (such as porosity) in AM parts are too small to be detected by monitoring the entire powder bed; for this reason, an autonomous method for detecting changes in melt pool morphology via a high speed camera is presented. Finally, Machine Learning techniques are applied to the in-situ melt pool morphology data to enable the study of melt pool behavior during fusion of non-bulk part geometries.
35

Melhoria do processo de produção de tecidos metálicos na fabricação de pneus

Rodrigues, Jordana Roider January 2014 (has links)
A melhoria de processos é um tema abordado em diversos setores. Este trabalho concentrou-se na melhoria do processo de produção de tecidos metálicos usados como material de reforço na fabricação de pneus radiais. O estudo foi realizado em uma indústria fabricante de pneus, em uma calandra de configuração Z e teve como objetivo aprofundar os conhecimentos a respeito deste processo identificando oportunidades de melhorias para reduzir perdas causadas por problemas qualitativos. Além disso, buscou melhorar a qualidade percebida pelo cliente interno sem afetar a qualidade do produto final, percebida pelo cliente externo. Para tanto, foi realizado um mapeamento do processo produtivo em questão, seguido de um estudo do efeito das temperaturas neste processo. O mapeamento mostrou que muitas etapas possuem influência direta na qualidade dos tecidos, as oportunidades de melhoria foram destacadas durante e após o mapeamento e estão relacionadas principalmente ao controle das temperaturas da calandra e dos moinhos, à automatização do processo, aos procedimentos operacionais e à instalação de dispositivos de controle e alerta. Uma vez que o controle das temperaturas de toda a linha da calandra resultou ser um fator crítico para o processo, realizou-se um estudo do efeito das temperaturas usadas durante a produção, a partir do uso da metodologia de Projeto de Experimentos com a aplicação de um Projeto Fatorial 25-1 sem repetição Quatro variáveis de resposta foram estudadas: quantidade de grumos pré-vulcanizados, aderência tecido-tecido, reversão de enxofre e adesão borracha-metal. Os fatores controláveis usados foram: temperatura dos moinhos alimentadores, temperatura dos cilindros 1 e 4, temperatura dos cilindros 2 e 3, temperatura dos tambores de resfriamento e temperatura do aquecimento das cordas metálicas. Pela otimização das variáveis de resposta, chegou-se aos valores ótimos para o processo, sendo todos eles no seu nível alto, com exceção da temperatura dos cilindros 2 e 3 que apresentou o melhor valor no nível baixo. Os resultados deste trabalho aprofundaram os conhecimentos num processo que, apesar de muito antigo, ainda possui poucos textos publicados a respeito. Adicionalmente, forneceu uma otimização experimental para as afirmações encontradas na literatura sobre a importância do controle de temperaturas no processo de fabricação de tecidos metálicos. / The process improvement is a topic widely used in several sectors. In this work this topic deals with improving the production process of metallic fabrics used as reinforcement material for radial tires. The study was carried out in a tire industry in a Z configuration calender and aims to deepen the knowledge about this process by identifying improvement opportunities to reduce losses caused by quality problems in metallic fabrics. It also seeks to improve the quality perceived by internal costumer without affecting the quality of the final product, perceived by the external customer. Thus, a mapping of the production process in question was made, followed by a study of the effect of temperature in this manufacturing process. The mapping shown that many steps have direct influence on fabric quality, the opportunities for improvement were highlighted during and after the mapping and are related mainly to control the temperature of the calender and mills, to process automation, operational procedures and the installation of devices for control and alert. Since the temperature control of whole calender line proved to be a critical factor in the process, a study of the effect of the temperatures used during the production was performed from the use of the design of experiments methodology with the application of a factorial design 25-1, without replication Four response variables were studied: number of pre vulcanized lumps, tack, sulfur reversion and steel-rubber adhesion. The controllable factors chosen were: feeder mills temperature, temperature of rolls 1 and 4 of the calender, temperature of rolls 2 and 3 of the calender, temperature of cooling drums and heating temperature of steel cords. By the optimization of the response variables, it was reached the optimum values for the process, all of which are in its high level except for the temperature of the rolls 2 and 3 which showed the best value in the low level. These results obtained deepened knowledge in a process which, though very old, still has a few articles published. Additionally, it provided quantitative data to the statements found in the literature about the importance of temperature control in the manufacturing process of metallic fabrics.
36

Fatores intervenientes na produção da notícia e seus impactos na qualidade da informação

Villar, Fabíola Bach January 2017 (has links)
A imprevisibilidade dos acontecimentos que se transformarão em notícia e a necessidade de cumprir um horário de fechamento diário tornam o trabalho em redação de jornal uma atividade sob a constante pressão de fatores internos e externos. Premidos pelo tempo, a todo instante editores precisam decidir rapidamente se apostam ou não em um fato como notícia, que grau de complexidade darão à pauta, se o repórter vai para a rua buscar informações, quantas e quais pessoas devem ser ouvidas, qual espaço o assunto irá ocupar na edição. E, principalmente, como garantir que o resultado dessas decisões seja uma informação de qualidade, correta, imparcial e com credibilidade. Neste contexto, esta dissertação tem a finalidade de contribuir para a identificação de quais fatores afetam a produção de uma notícia, impactando na qualidade da informação que chega ao leitor. A partir de uma abordagem transdisciplinar, com conceitos teóricos das áreas de Comunicação, Gestão de Processos e Qualidade da Informação, se constituiu um estudo de caso fundamentado por meio de pesquisa de natureza aplicada. Inicialmente, foi realizado um mapeamento do processo em uma Redação de jornal impresso, buscando identificar fluxos de produção e pontos críticos. Em um segundo momento, foram ouvidos sete editores que atuam na empresa, utilizando o Método Delphi, com o objetivo de entender quais são as principais interferências no dia a dia da Redação e como elas afetam o texto jornalístico. Ao analisar o impacto do tempo na produção do jornal, os entrevistados reconhecem prejuízos especialmente na etapa de apuração dos fatos, quando o repórter coleta informações e realiza entrevistas. Também destacam a importância da etapa de checagem de dados. O resultado são notícias publicadas sem contextualização, com imprecisão ou erro nas informações e textos inconsistentes. Em relação à rotina dos repórteres, ficou evidenciado que as maiores dificuldades estão em obter um ângulo diferente da notícia e ter acesso a fontes e dados dentro do prazo disponível. Entender os fatores intervenientes na produção da notícia e antecipar-se a eles permite garantir aos jornalistas elaborarem com mais frequência a notícia ideal, definida pelos entrevistados como aquela que tem contextualização, pluralidade, interpretação e criatividade. / The unpredictability of events that will be converted into news, and the need to comply with daily deadlines turn the newspaper newsroom work into an activity under constant pressure by internal and external factors. At all times, editors have to make several quick decisions, such as whether they bet on a given fact as news, whether the reporter will gather information in the streets or contact the sources by telephone, the best approach for the event, how many and what sort of people must be heard, where to collect data, how to write clearly and attractively for the reader. Moreover, how to guarantee that such decisions will result in accurate, unbiased and reliable information. Within this context, this thesis aims at contributing to the identification of internal and external factors that affect news production, and impact the quality of information that reaches the reader. Resting on a transdisciplinary approach, and employing theoretical concepts from the Communication, Process Management, and Information Quality areas, a case study was built based on applied research. Firstly, the process in a print newspaper newsroom was mapped seeking to identify production flows and critical points. In a second moment, by using Delphi Method seven editors who work in the company were heard with the objective to understand the overriding interferences in the newsroom daily activities, and how they affect the journalistic text. When analyzing the impact of time on newspaper production, the interviewees recognize harmful effects specially during the stage of fact ascertainment, when the reporter collects information and conducts interviews. The editors also highlight the significance of the data cheking stage. The outcome will be non-contextualized news, innacurate or mistaken information and text inconsistency. Regarding the reporters routine, it is evident that the biggest difficulties are in obtaining a different angle from a given piece of news, and gaining access to sources and data within the available time span. Understanding the intervening factors of news production, and being ahead of them might assure to journalists the development of the ideal piece of news more often, which according to the interviewees is that one containing contextualization, plurality, interpretation and creativity.
37

Mapeamento estático de processos MPI com emparelhamento perfeito de custo máximo em cluster homogêneo de multi-cores / Static MPI processes mapping using maximum weighted perfect matching at homogeneous multi-core clusters

Ferreira, Manuela Klanovicz January 2012 (has links)
Um importante fator que precisa ser considerado para alcançar alto desempenho em aplicações paralelas é a distribuição dos processos nos núcleos do sistema, denominada mapeamento de processos. Mesmo o mapeamento estático de processos é um problema NP-difícil. Por esse motivo, são utilizadas heurísticas que dependem da aplicação e do hardware no qual a aplicação será mapeada. Nas arquiteturas atuais, além da possibilidade de haver mais de um processador por nó do cluster, é possível haver mais de um núcleo de processamento por processador, assim, o mapeamento estático de processos pode considerar pelo menos três níveis de comunicação entre os processos que executam em um cluster multi-core: intra-chip, intra-nó e inter-nó. Este trabalho propõe a heurística MapEME (Mapeamento Estático MPI com Emparelhamento) que emprega o Emparelhamento Perfeito de Custo Máximo (EPCM) no cálculo do mapeamento estático de processos paralelos MPI em processadores multi-core. Os resultados alcançados pelo mapeamento gerado pela MapEME são comparados aos resultados obtidos pelo mapeamento gerado pela aplicação Scotch, que utiliza o Biparticionamento Recursivo Dual (BRD), já utilizado como heurística para mapeamento estático de processos. Ambas as heurísticas são comparadas à Busca Exaustiva (BE) para verificar o quanto estão próximas do ótimo. Os três métodos têm a complexidade e o ganho no tempo de execução em ralação à distribuição padrão da biblioteca MPICH2 comparados entre si. A principal contribuição deste trabalho é mostrar que a heurística EPCM apresenta ganho de até 40% equivalente a já difundida BRD, e possui uma complexidade menor ao ser aplicado em um cluster multi-core que compartilha cache nível 2 a cada dois núcleos. / An important factor that must be considered to achieve high performance on parallel applications is the mapping of processes on cores. However, since this is defined as an NP-Hard problem, it requires different mapping heuristics that depends on the application and the hardware on which it will be mapped. On the current architectures we can have more than one multi-core processors per node, and consequently the process mapping can consider three process communication types: intrachip, intranode and internode. This work propose the MapEME (Static Mapping MPI using Matching) that use the Maximum Weighted Perfect Matching (MWPM) to calculate the static process mapping and analyze its performance. The results provided by MapEME are compared with the results of application Scotch. It uses Dual Recursive Bipartitioning (DRB), an already used heuristics for static mapping. Both heuristics are compared with Exhaustive Search (ES) to verify how much the two heuristics are near the optimum. The three methods have theirs complexities analyzed. Also the mapping gain when compared with the standard MPICH2 distribution was measured. The main contribution of this work is to show that the heuristic, EPCM, provides gain up to 40%, close of DRB gain. Furthermore, EPCM has a lower complexity when applied to a multicore cluster that shares L2 cache every two cores.
38

Mapeamento estático de processos MPI com emparelhamento perfeito de custo máximo em cluster homogêneo de multi-cores / Static MPI processes mapping using maximum weighted perfect matching at homogeneous multi-core clusters

Ferreira, Manuela Klanovicz January 2012 (has links)
Um importante fator que precisa ser considerado para alcançar alto desempenho em aplicações paralelas é a distribuição dos processos nos núcleos do sistema, denominada mapeamento de processos. Mesmo o mapeamento estático de processos é um problema NP-difícil. Por esse motivo, são utilizadas heurísticas que dependem da aplicação e do hardware no qual a aplicação será mapeada. Nas arquiteturas atuais, além da possibilidade de haver mais de um processador por nó do cluster, é possível haver mais de um núcleo de processamento por processador, assim, o mapeamento estático de processos pode considerar pelo menos três níveis de comunicação entre os processos que executam em um cluster multi-core: intra-chip, intra-nó e inter-nó. Este trabalho propõe a heurística MapEME (Mapeamento Estático MPI com Emparelhamento) que emprega o Emparelhamento Perfeito de Custo Máximo (EPCM) no cálculo do mapeamento estático de processos paralelos MPI em processadores multi-core. Os resultados alcançados pelo mapeamento gerado pela MapEME são comparados aos resultados obtidos pelo mapeamento gerado pela aplicação Scotch, que utiliza o Biparticionamento Recursivo Dual (BRD), já utilizado como heurística para mapeamento estático de processos. Ambas as heurísticas são comparadas à Busca Exaustiva (BE) para verificar o quanto estão próximas do ótimo. Os três métodos têm a complexidade e o ganho no tempo de execução em ralação à distribuição padrão da biblioteca MPICH2 comparados entre si. A principal contribuição deste trabalho é mostrar que a heurística EPCM apresenta ganho de até 40% equivalente a já difundida BRD, e possui uma complexidade menor ao ser aplicado em um cluster multi-core que compartilha cache nível 2 a cada dois núcleos. / An important factor that must be considered to achieve high performance on parallel applications is the mapping of processes on cores. However, since this is defined as an NP-Hard problem, it requires different mapping heuristics that depends on the application and the hardware on which it will be mapped. On the current architectures we can have more than one multi-core processors per node, and consequently the process mapping can consider three process communication types: intrachip, intranode and internode. This work propose the MapEME (Static Mapping MPI using Matching) that use the Maximum Weighted Perfect Matching (MWPM) to calculate the static process mapping and analyze its performance. The results provided by MapEME are compared with the results of application Scotch. It uses Dual Recursive Bipartitioning (DRB), an already used heuristics for static mapping. Both heuristics are compared with Exhaustive Search (ES) to verify how much the two heuristics are near the optimum. The three methods have theirs complexities analyzed. Also the mapping gain when compared with the standard MPICH2 distribution was measured. The main contribution of this work is to show that the heuristic, EPCM, provides gain up to 40%, close of DRB gain. Furthermore, EPCM has a lower complexity when applied to a multicore cluster that shares L2 cache every two cores.
39

Um framework para mapeamento de processos As Is apoiado por design thinking

DUTRA, Danilo Lima 17 August 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-07-12T12:39:12Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertacao - Danilo Lima Dutra - CPF 00598295321.pdf: 2583713 bytes, checksum: bae65495d4d11b7b48af295372fc0f44 (MD5) / Made available in DSpace on 2016-07-12T12:39:12Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertacao - Danilo Lima Dutra - CPF 00598295321.pdf: 2583713 bytes, checksum: bae65495d4d11b7b48af295372fc0f44 (MD5) Previous issue date: 2015-08-17 / Em Gestão de Processos de Negócio (do inglês, Business Process Management ou BPM), a fase de mapeamento do processo As Is compreende o trabalho de identificação e modelagem do processo que realmente é executado. O mapeamento é crucial para entender como os processos da organização estão sendo conduzidos e possibilitar uma análise das possíveis melhorias. Em organizações com pouca ou nenhuma maturidade em BPM, a documentação sobre processos é escassa e normalmente o conhecimento sobre eles está concentrado nos especialistas do negócio (pessoas que participam do processo executando, gerenciando ou monitorando atividades específicas dentro dele). Neste cenário, o analista de processos tem o desafio de extrair dos especialistas o máximo de informações sobre o processo. Como forma de garantir um mapeamento de processos centrado no humano, foi proposta a construção de um Framework para Mapeamento de Processos As Is, com uma metodologia que oriente desde a escolha da equipe de mapeamento até o mapeamento do processo As Is. Este Framework faz uso de conceitos do Design Thinking (DT), para trabalhar a análise e solução de problemas de forma colaborativa, de modo a definir técnicas, ferramentas e artefatos mais adequados para mapeamento junto à equipe. Para avaliar o Framework proposto, um estudo de caso é discutido. Nesse estudo o Framework foi aplicado em sua completude dentro de uma organização, onde foi realizado o mapeamento de seus processos com o objetivo de analisar como estavam sendo conduzidos e identificar oportunidades de melhoria. O estudo de caso mostrou resultados importantes que apontam os benefícios da utilização do Framework para o cenário proposto. Por fim, é importante ressaltar que essa dissertação contribui com a proposta de um Framework que seja flexível e, portanto, deve ser considerado como um "cardápio" de alternativas para apoiar o analista de processos na etapa de mapeamento. / Business Process Management (BPM), the mapping phase of the As Is process includes the identification and modeling of the process that actually runs. Mapping is crucial to understand how the organization's processes are being conducted and enable an analysis of possible improvements. In organizations with few or none BPM maturity, documentation about processes is scarce and usually the knowledge of them is concentrated in the business experts (people who participate in the running process, managing or monitoring specific activities within it). In this scenario, the process analyst has the challenge of extracting from the experts as much information about the process as can get. In order to ensure a human centered process mapping, it was proposed the construction of a Framework for Process Mapping As Is, with a methodology that guides from the choice of the mapping team to the mapping process As Is. This Framework makes use of the Design Thinking concepts (DT), who works the analysis and troubleshooting collaboratively, to define best suited techniques, tools and artifacts with the team. To evaluate the proposed Framework, a case study is discussed. In this study the framework was entirely applied in an organization, which was carried out mapping of its processes in order to analyze how they were being conducted and identify opportunities for improvement. The case study showed significant results that link the benefits of using the Framework to the proposed scenario. Finally, it is important to note that this dissertation contributes to the proposal for a framework that is flexible and therefore should be considered a "menu" of alternatives to support the process analyst on the mapping phase.
40

Part Temperature Effects in Powder Bed Fusion Additive Manufacturing of Ti-6Al-4V

Fisher, Brian A. 01 May 2018 (has links)
To ensure the widespread adoption of metal Additive Manufacturing (AM) processes, a complete understanding of the interactions between process variables is necessary. The process variables of beam power, beam velocity, deposition geometry, and beam diameter have been shown in prior works to have major effects on resultant melt pool and solidification characteristics, but this list is incomplete. Without accounting for part temperatures prior to deposition, unintended outcomes may result. In the current work, Ti-6Al-4V is studied in the Powder Bed Fusion (PBF) processes to gain an in-depth understanding of how part temperature interactions with other process variables affect physical properties of the process such as melt pool size and variability, part distortion, porosity, and microstructural characteristics. This research is performed through a combination of finite element modelling, single melt track experiments, full part production, and in-situ monitoring in order to gain a full understanding of the underlying relationships between part temperature and part outcomes. In the Arcam Electron Beam Melting (EBM®) process, this knowledge is used to generate a feedback control strategy to constrain prior beta grain width to remain constant while part surface temperatures are allowed to vary. In the Laser Powder Bed Fusion (LPBF) process, deposition is investigated at elevated substrate temperatures and several findings show that unintended part temperature increases can lead to undesirable consequences while prescribed part temperature changes can increase the available processing window and allow for more uniform deposition. This work also shows that both global temperature changes due to substrate heating and local temperature changes due to the choice of scan strategy can be combined into one metric: the temperature encountered by the melt pool during deposition. A combination of destructive and non-destructive characterization methods are utilized to understand and measure the changes to the melt pool and microstructural development that are seen during deposition. The feasibility of using a commercial high speed camera as a tool for thermography is characterized and the ability to discern cooling rates and thermal gradients within and surrounding the melt pool provide validation for trends in melt pool properties generated from simulations. This work provides a greater understanding of the role of part temperature during deposition and presents methodologies to account for the changes to the melt pool and resultant part due to both prescribed and unintended temperature changes during deposition.

Page generated in 0.0802 seconds