• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 15
  • 12
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 63
  • 63
  • 25
  • 24
  • 11
  • 10
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Evaluation de précision et vitesse de simulation pour des systèmes de calcul distribué à large échelle / Accurate and Fast Simulations of Large-Scale Distributed Computing Systems

Madeira de Campos Velho, Pedro Antonio 04 July 2011 (has links)
De nos jours, la grande puissance de calcul et l'importante capacité de stockage fournie par les systèmes de calcul distribué à large échelle sont exploitées par des applications dont les besoins grandissent continuellement. Les plates-formes de ces systèmes sont composées d'un ensemble de ressources reliées entre elles par une infrastructure de communication. Dans ce type de système, comme dans n'importe quel environnement de calcul, il est courant que des solutions innovantes soient étudiées. Leur adoption nécessite une phase d'expérimentation pour que l'on puisse les valider et les comparer aux solutions existantes ou en développement. Néanmoins, de par leur nature distribuée, l'exécution d'expériences dans ces environnements est difficile et coûteuse. Dans ces systèmes, l'ordre d'exécution dépend de l'ordre des événements, lequel peut changer d'une exécution à l'autre. L'absence de reproductibilité des expériences rend complexe la conception, le développement et la validation de nouvelles solutions. De plus, les ressources peu- vent changer d'état ou intégrer le système dynamiquement ; les architectures sont partagées et les interférences entre applications, ou même entre processus d'une même application, peuvent affecter le comportement général du système. Enfin, le temps d'exécution d'application à large échelle sur ces sys- tèmes est souvent long, ce qui empêche en général l'exploration exhaustive des valeurs des éventuels paramètres de cette application. Pour toutes ces raisons, les expérimentations dans ce domaine sont souvent basées sur la simulation. Diverses approches existent actuellement pour simuler le calcul dis- tribué à large-échelle. Parmi celles-ci, une grande partie est dédiée à des architectures particulières, comme les grappes de calcul, les grilles de calcul ou encore les plates-formes de calcul bénévole. Néan- moins, ces simulateurs adressent les mêmes problèmes : modéliser le réseau et gérer les ressources de calcul. De plus, leurs besoins sont les même quelle que soit l'architecture cible : la simulation doit être rapide et passer à l'échelle. Pour respecter ces exigences, la simulation de systèmes distribués à large échelle repose sur des techniques de modélisation pour approximer le comportement du système. Cependant, les estimations obtenues par ces modèles peuvent être fausses. Quand c'est le cas, faire confiance à des résultats obtenus par simulation peut amener à des conclusions aléatoires. En d'autres mots, il est nécessaire de connaître la précision des modèles que l'on utilise pour que les conclusions basées sur des résultats de simulation soient crédibles. Mais malgré l'importance de ce dernier point, il existe très rarement des études sur celui-ci. Durant cette thèse, nous nous sommes intéressés à la problématique de la précision des modèles pour les architectures de calcul distribué à large-échelle. Pour atteindre cet objectif, nous avons mené une évaluation de la précision des modèles existants ainsi que des nouveaux modèles conçus pendant cette thèse. Grâce à cette évaluation, nous avons proposé des améliorations pour atténuer les erreurs dues aux modèles en utilisant SimGrid comme cas d'étude. Nous avons aussi évalué les effets des ces améliorations en terme de passage à l'échelle et de vitesse d'exécution. Une contribution majeure de nos travaux est le développement de modèles plus intuitifs et meilleurs que l'existant, que ce soit en termes de précision, vitesse ou passage à l'échelle. Enfin, nous avons mis en lumière les principaux en- jeux de la modélisation des systèmes distribuées à large-échelle en montrant que le principal problème provient de la négligence de certains phénomènes importants. / Large-Scale Distributed Computing (LSDC) systems are in production today to solve problems that require huge amounts of computational power or storage. Such systems are composed by a set of computational resources sharing a communication infrastructure. In such systems, as in any computing environment, specialists need to conduct experiments to validate alternatives and compare solutions. However, due to the distributed nature of resources, performing experiments in LSDC environments is hard and costly. In such systems, the execution flow depends on the order of events which is likely to change from one execution to another. Consequently, it is hard to reproduce experiments hindering the development process. Moreover, resources are very likely to fail or go off-line. Yet, LSDC archi- tectures are shared and interference among different applications, or even among processes of the same application, affects the overall application behavior. Last, LSDC applications are time consuming, thus conducting many experiments, with several parameters is often unfeasible. Because of all these reasons, experiments in LSDC often rely on simulations. Today we find many simulation approaches for LSDC. Most of them objective specific architectures, such as cluster, grid or volunteer computing. Each simulator claims to be more adapted for a particular research purpose. Nevertheless, those simulators must address the same problems: modeling network and managing computing resources. Moreover, they must satisfy the same requirements providing: fast, accurate, scalable, and repeatable simulations. To match these requirements, LSDC simulation use models to approximate the system behavior, neglecting some aspects to focus on the desired phe- nomena. However, models may be wrong. When this is the case, trusting on models lead to random conclusions. In other words, we need to have evidence that the models are accurate to accept the con- clusions supported by simulated results. Although many simulators exist for LSDC, studies about their accuracy is rarely found. In this thesis, we are particularly interested in analyzing and proposing accurate models that respect the requirements of LSDC research. To follow our goal, we propose an accuracy evaluation study to verify common and new simulation models. Throughout this document, we propose model improvements to mitigate simulation error of LSDC simulation using SimGrid as case study. We also evaluate the effect of these improvements on scalability and speed. As a main contribution, we show that intuitive models have better accuracy, speed and scalability than other state-of-the art models. These better results are achieved by performing a thorough and systematic analysis of problematic situations. This analysis reveals that many small yet common phenomena had been neglected in previous models and had to be accounted for to design sound models.
12

Avaliação de políticas de escalonamento para execução de simulações distribuídas / Evaluation of politics of scheduling for execution of distributed simulations

Carvalho Junior, Osvaldo Adilson de 26 May 2008 (has links)
Um melhor escalonamento em simulação distribuída é fundamental para uma execução mais rápida e eficiente. O projeto desenvolvido tem como objetivo a avaliação de desempenho de políticas de escalonamento convencionais e específicas para Simulação Distribuída (SD), apresentando uma comparação do desempenho destas duas abordagens. Análises das pesquisas feitas na área mostram que não existe avaliação semelhante. Assim, este trabalho tem a importante contribuição de demonstrar as vantagens e desvantagens do uso de políticas tradicionais em relação às específicas em SD. Para execução das simulações foi utilizada a ferramenta Warped, que está descrita nesta dissertação. Foram desenvolvidas e implementadas novas técnicas de escalonamento que utilizam os resultados da simulação em execução, assim executam um melhor balanceamento de carga. Para o desenvolvimento deste projeto foi necessária uma revisão bibliográfica envolvendo conceitos de simulação distribuída com seus respectivos protocolos de sincronização, escalonamento de processos específicos para programas de SD e políticas tradicionais. Com este estudo soma-se como contribuição deste trabalho uma nova classificação das políticas específicas para SD que utilizam protocolo otimista / A bestter scheduling in distributed simulation is fundamental to a fast and efficient execution. The developed project has as objective the evaluation of performance of conventional and specific politics of scheduling for Distributed Simulation (DS), presenting a comparison of the performance of these two boardings. Analyses of the research done in the area show that similar evaluation does not exists. Thus, this work has the important contribution to demonstrate to the advantages and disadvantages of the use of traditional politics in relation to the specific ones in DS. For execution of the simulations the Warped tool was used, that is described in this work. They had been developed and implemented new techniques of scheduling that use the results of the simulation in execution, thus they execute one better load balancing. For the development of this project a bibliographical revision was necessary involving concepts of simulation distributed with its respective protocols of synchronization, traditional scheduling of specific processes for DS programs and politics. With this study a new classification of the specific politics for DS is added as contribution of this work that use optimistical protocol
13

Konkurencieschopnosť krajín Vyšehradskej štvorky po vstupe do EÚ -medzinárodné porovnanie / Competitiveness of Visegrad countries after joining the EU – international comparison

Benedikovičová, Petra January 2011 (has links)
The aim of my diploma thesis is the macroeconomic analysis of the Visegrad Four countries after joining the EU, which will be evaluated in the international context. It will be assessed on three levels, both in terms of economic performance of V-4 converging countries, based on Eurostat statistical data and the Czech Statistical Office. At the second level, it will be assessed in terms of multi-criteria evaluation of the Global Competitiveness Report, which in addition to hard statistical data, is working with soft data as well. At the third level, the Competitiveness will be evaluated in terms of innovation performance, based on an evaluation tool of EU Innovation Union Scoreboard.
14

Optimisation et évaluation des performance en traitement d'image / Optimisation and Performance Evaluation in image registration technique

Mambo, Shadrack 19 October 2018 (has links)
Résumé : Thèse de DoctoratL’importance de l’imagerie médicale comme élément principal dans plusieurs application médicales et diagnostiques de soin de santé est indispensable. L’intégration des données utiles obtenues des diverses images est vitale pour une analyse appropriée de l’information contenues dans ces images sous observation. Pour que ce processus d’intégration réussisse, une procédure appelée recalage d’image est nécessaire.Le but du recalage d’image consiste à aligner deux images afin de trouver une transformation géométrique qui place une des deux images dans la meilleure correspondance spatiale possible avec l’autre image en optimisant un critère de recalage. Les deux images sont dites image cible et image source. Les méthodes de recalage d’image consistent à avoir référencées par des points de contrôle. Ceci est suivi d’une transformation de recalage qui associe les deux images et d’une fonction définie sur base de la mesure de similarité qui a pour but de mesurer la valeur qualitative de proximité ou encore de degré de concordance entre l’image cible et l’image source. Enfin, un optimisateur qui cherche à trouver la transformation optimale au sein du champ de solution de la recherche, est appliqué.Cette recherche présente un algorithme automatique de recalage d’image dont le but est de résoudre le problème du recalage d’image à multiple modes sur une paire des clichés de tomographie par ordinateur (CT) faite sur les poumons. Dans cette méthode, une étude comparative entre la méthode classique d’optimisation par algorithme du gradient à pas fixe et celle de l’algorithme évolutionniste est menée. L’objectif de cette recherche est d’effectuer l’optimisation par des techniques de recalage d’image ainsi qu’évaluer la performance de ces mêmes techniques afin de doter les spécialistes du domaine médical d’une estimation de combien précis et robuste le processus de recalage serait. Les paires des clichés obtenues de la tomographie par ordinateur faite sur les poumons sont recalées en utilisant l’information mutuelle comme mesure de similarité, la transformation affine ainsi que l’interpolation linéaire. Un optimisateur qui recherche la transformation optimale au sein de l’espace de recherche est appliqué afin de minimiser la fonction économique (fonction objectif).Les études de détermination d’un modèle de transformation qui dépend des paramètres de transformation et de l’identification des mesures de similarité basée sur l’intensité du voxel ont été menées. En alignant la transformation avec les points de control, trois modèles de transformation sont comparés. La transformation affine produit la meilleure reconstitution d’image en comparaison aux transformations non réfléchissantes et projectives. Les résultats de cette recherche sont assez comparables à celles rapportées dans le challenge de recherche EMPIRE 10 et sont conformes à la fois aux principes théoriques aussi bien qu’aux applications pratiques.La contribution de cette recherche réside dans son potentiel à améliorer la compréhension scientifique du recalage d’image des organes anatomiques du corps humain. Cette recherche établie ainsi une base pour une recherche avancée sur l’évaluation de la performance des techniques de recalage et la validation des procédures sur d’autres types d’algorithmes et domaines d’application du recalage d’images comme la détection, la communication par satellite, l’ingénierie biomédicale, la robotique, les systèmes d'information géographique (SIG) et de localisation parmi tant d’autres / D’Tech Thesis SummaryThe importance of medical imaging as a core component of several medical application and healthcare diagnosis cannot be over emphasised. Integration of useful data acquired from different images is vital for proper analysis of information contained in the images under observation. For the integration process to be successful, a procedure referred to as image registration is necessary.The purpose of image registration is to align two images in order to find a geometric transformation that brings one image into the best possible spatial correspondence with another image by optimising a registration criterion. The two images are known as the target image and the source image. Image registration methods consist of having the two images referenced with control points. This is followed by a registration transformation that relates the two images and a similarity metric function that aims to measure the qualitative value of closeness or degree of fitness between the target image and the source image. Finally, an optimiser which seeks an optimal transformation inside the defined solution search space is performed.This research presents an automated image registration algorithm for solving multimodal image registration on lung Computer Tomography (CT) scan pairs, where a comparison between regular step gradient descent optimisation technique and evolutionary optimisation was investigated. The aim of this research is to carry out optimisation and performance evaluation of image registration techniques in order to provide medical specialists with estimation on how accurate and robust the registration process is. Lung CT scan pairs are registered using mutual information as a similarity measure, affine transformation and linear interpolation. In order to minimise the cost function, an optimiser, which seeks the optimal transformation inside the defined search space is applied.Determination of a transformation model that depends on transformation parameters and identification of similarity metric based on voxel intensity were carried out. By fitting transformation to control points, three transformation models were compared. Affine transformation produced the best recovered image when compared to non-reflective similarity and projective transformations. The results of this research compares well with documented results from EMPIRE 10 Challenge research and conforms to both theoretical principles as well as practical applications.The contribution of this research is its potential to increase the scientific understanding of image registration of anatomical body organs. It lays a basis for further research in performance evaluation of registration techniques and validation of procedures to other types of algorithms and image registration application areas, such as remote sensing, satellite communication, biomedical engineering, robotics, geographical information systems and mapping, among others
15

Evaluation de performances d'une classe de systemes de ressources partagees

Brilman, Matthieu 30 September 1996 (has links) (PDF)
Nous presentons un modele de systemes de ressources partagees sur lequel nous definissons un parametre de performances fondamental : $\gamma$. Nous cherchons ensuite a etudier ce parametre de performances pour une classe de systemes stochastiques. Apres avoir presente quelques proprietes analytiques de $\gamma$, nous nous interessons a son evaluation. Les calculs exacts etant rarement possibles, nous recherchons des bornes. Plusieurs approches sont presentees. Les resultats mettent en valeur une notion importante : celle de graphe d'exclusion d'un systeme de ressources partagees. En effet, les bornes obtenues sont fonctions de quantites simples definies sur ce graphe, telles que le degre moyen ou le nombre chromatique. Nous montrons ensuite les resultats qu'apportent les bornes que nous avons trouvees pour l'estimation d'exposants de Lyapunov de matrices stochastiques dans l'algebre (max,+).
16

The Evaluation of Performance for Financial Holding Company's Subsidiaries of Commercial Bank In Taiwan

Hwang, Jia-Shiang 29 July 2005 (has links)
none
17

Gestão por competências e desempenho profissional: um estudo de caso do modelo de avaliação por múltiplas fontes do banco do Brasil s.a.

Bastos, Kátia Maria Rodrigues January 2007 (has links)
p. 1 - 199 / Submitted by Santiago Fabio (fabio.ssantiago@hotmail.com) on 2013-02-18T19:07:04Z No. of bitstreams: 1 3333.pdf: 1122174 bytes, checksum: 960b654deb923513af045ef9c127f59c (MD5) / Approved for entry into archive by Fatima Cleômenis Botelho Maria (botelho@ufba.br) on 2013-02-19T16:15:45Z (GMT) No. of bitstreams: 1 3333.pdf: 1122174 bytes, checksum: 960b654deb923513af045ef9c127f59c (MD5) / Made available in DSpace on 2013-02-19T16:15:45Z (GMT). No. of bitstreams: 1 3333.pdf: 1122174 bytes, checksum: 960b654deb923513af045ef9c127f59c (MD5) Previous issue date: 2007 / O presente estudo aborda a gestão por competências, tema que vem despertando interesse de pesquisadores e de organizações, observando-se uma expressiva produção acadêmica e um crescente número de empresas que decidem adotar modelos de gestão referenciados neste conceito. Esta pesquisa relata a experiência na adoção de um sistema de avaliação de desempenho por competências no Banco do Brasil, organização nacional do setor financeiro, que avalia formalmente o desempenho de seus funcionários há mais de 40 anos. O objetivo do estudo foi o de investigar a percepção dos funcionários do Banco acerca do novo modelo. Suas hipóteses foram: H1 - O novo Modelo de Avaliação do Desempenho por Competências – GDP tornou o processo mais democrático, possibilitando uma maior participação dos funcionários; H2 - O novo Modelo de Avaliação do Desempenho por Competências por Múltiplas fontes reduziu a subjetividade no processo de avaliação; H3 - A visão de Competências do novo Modelo minimizou a generalidade do processo de avaliação ao adotar Competências comuns a todos os funcionários (Fundamentais), Competências específicas ao papel ocupacional (Gerenciais), e Competências específicas à área de atuação do funcionário (Específicas); H4 - O processo de Acompanhamento está alinhado à premissa de foco no desenvolvimento profissional prevista pelo novo modelo de gestão do desempenho; H5 – A GDP integra adequadamente num único modelo: a Gestão por Competências e a Avaliação de desempenho por Múltiplas Fontes e o Balanced Scorecard; H6 - O novo Modelo estimula o autodesenvolvimento dos funcionários ao integrar opções de capacitação com temas vinculados às Competências avaliadas. Adotou-se a estratégia metodológica do estudo de caso, de natureza descritivo-exploratória, inferencial de fundamentação comparativa, valendo-se de fontes primárias e secundárias. As fontes secundárias envolveram revisão de bibliografia sobre estado da arte e do campo em avaliação de desempenho e gestão por competência e análise documental da empresa pesquisada. Os dados primários foram coletados em pesquisa de campo na qual se utilizou questionário estruturado, composto por 32 assertivas, agrupadas em seis fatores – democratização e participação dos funcionários no processo de avaliação; avaliação por múltiplas fontes e a subjetividade do processo; abordagem por competências e a generalização do processo; acompanhamento com foco na premissa de desenvolvimento profissional do funcionário; a integração adequada, num único instrumento, da gestão por competências, a avaliação por múltiplas fontes e o BSC; e o estímulo ao autodesenvolvimento profissional dos funcionários. Esse questionário derivou da revisão teórico-empírica sobre o assunto e da identificação dos pontos críticos do sistema de avaliação anterior, apontados pelos próprios funcionários durante o 4º Fórum de Gestão de Pessoas promovido pelo Banco. O questionário de pesquisa foi submetido à avaliação semântica e de conteúdo junto a pesquisador, especialista no tema competências, seguida da realização de dois pré-testes junto a indivíduos equivalentes aos da população da pesquisa. A aplicação à população pesquisada resultou em 844 questionários respondidos, o que representou 47% do total de funcionários das agências do Banco do Brasil localizadas em Salvador. Os resultados da pesquisa foram submetidos a análises estatísticas descritivas e inferenciais. A análise dos dados de natureza quantitativa foi complementada por tratamento das questões em aberto, constantes da última parte do questionário, no campo observações, que foram agrupadas em categorias analíticas. De modo geral, os funcionários manifestaram uma percepção positiva quanto às mudanças implementadas pelo novo modelo de gestão do desempenho por competências – GDP, corroborando-se as hipóteses H1,2,3,5,6. A hipótese H4 não foi corroborada. Sendo assim, pode-se concluir que os entrevistados, em geral, concordam que o novo GDP é participativo, reduziu a subjetividade e os riscos de generalização, integra a gestão por competência, o balanced scorecard e as estratégias organizacionais, e foca o autodesenvolvimento. No entanto, a percepção dos entrevistados sobre o acompanhamento é a de que o alinhamento entre processo de acompanhamento e foco no desenvolvimento profissional prevista pelo novo modelo de gestão do desempenho ainda é pouco observado, em comparação com os outros fatores do sistema sob avaliação. Não foram observadas diferenças de avaliação entre sexo, em faixas de idade e de tempo de banco e em certas categorias funcionais em relação aos resultados gerais. / Salvador
18

Avaliação do desempenho operacional de pequenas e médias empresas de confecção por meio da análise de custos e dos indicadores de perdas do sistema lean

Pedroso, Selma da Silva January 2017 (has links)
Com a competição atual nas indústrias de confecção e o confronto com uma crise da indústria nacional, as pequenas e médias empresas do ramo vêm buscando meios para manterem-se no mercado. Em 2014, o setor têxtil reunia mais de 33 mil empresas das quais mais de 80% eram confecções de pequeno e médio porte. Em todo o território nacional, no referido ano o setor faturou US$ 55,4 bilhões, contra US$ 58,2 bilhões em 2013, refletindo a desvalorização do Real e a queda da produção da indústria pelo quarto ano consecutivo (ABIT, 2015). Após dois anos de recessão, 2017 aponta sinais de início da recuperação do setor. Os dados sinalizam aumento na produção de vestuário de 1%, e o faturamento do setor deverá aumentar 4,6% (ABIT, 2017). Diante disso, conhecer e mensurar as perdas operacionais das indústrias de confecção auxilia na sobrevivência dessas pequenas e médias empresas. Conforme Beber et al. (2004), as perdas são obstáculos na busca da plena eficiência industrial, pois repassam ao consumidor os custos da ineficiência dos processos das empresas, e isso o mercado já não está mais absorvendo. Nesse contexto, a filosofia Lean, com sua sistemática de detecção e análise de perdas, apresenta-se como ferramenta que pode, junto com as informações geradas pelo sistema de custos, formalizar e permitir a mensuração do desempenho dos processos industriais. Diante do exposto, o presente estudo objetiva propor um conjunto de indicadores e escalas de desempenho operacional de pequenas e médias empresas de confecção, utilizando as informações geradas pelo sistema de custos, e as ferramentas de mensuração de perdas do sistema Lean na criação de indicadores de desempenho. Para o alcance do objetivo, além de um estudo bibliográfico, o método foi desenvolvido de acordo com os preceitos do DSR - Design Science Research, sendo aplicado em um cenário real. A aplicação se dá em uma média empresa de confecção de Santa Catarina, onde, durante o processo de aplicação, o método foi analisado e adaptado à organização, de acordo com suas necessidades e limitações. O resultado alcançado foi a proposição e validação, em uma empresa, do conjunto de indicadores e escalas para a avaliação do desempenho operacional, objetivo principal desse estudo. / With the current competition in the clothing industry sector and the confrontation with a crisis of the national industry, the small and medium companies of the branch have been looking for ways to remain in the market. In 2014, the textile sector had more than 33 thousand enterprises of which more than 80 % were small and medium-sized companies. Across the national territory, in that year the sector earned US$ 55.4 billions, against US$ 58.2 billions in 2013, reflecting the devaluation of the Brazilian currency Real and the fall in industrial production for the fourth consecutive year (ABIT, 2015). After two years of recession, 2017 points to be the beginning of the recuperation in the sector. Data indicate an increase in clothing production of 1 %, and the turnover is expected to increase by 4.6% (ABIT, 2017). Given this, knowing and measuring the operational losses of the garment industry helps the survival of these small and medium-sized companies. According to Beber et al. (2004), the losses are obstacles in the search of the full industrial efficiency, as they pass on to the consumer the costs of the inefficiency of the processes of the companies, and that the market is not already absorbing any more. In this context, the Lean philosophy, with its systematic loss detection and analysis, presents itself as a tool that can, together with the information produced by the cost system, formalize and allow the measurement of the performance of the industrial processes. In view of the above, the present study aims to develop a set of indicators and performance scales of small and medium-sized clothing industries, using the information produced by the system of costs, and the tools of mensuration of losses of the system Lean in the creation of indicators of performance. In order to the reach the objective, besides a bibliographical study, the method was developed according to the DSR - Design Science Research precepts, being applied in a real scenario. The application took place in a medium-sized garment company in the Santa Catarina State, Brazil, where the method was analyzed and adapted to the organization according to its needs and limitations. The result was the proposition and validation in a company of the set of indicators and performance scales for the evaluation of operational performance, the main objective of this study.
19

Indicadores da capacidade de gestão ambiental urbana dos governos locais nas cidades médias do Estado de São Paulo /

Toledo, Silvia Rodrigues Bio de. January 2005 (has links)
Orientador: Roberto Braga / Banca: Ana Maria Marques Camargo Marangoni / Banca: Pompeu Figueiredo de Carvalho / Resumo: Indicadores são ferramentas importantes para a tomada de decisões e para o empoderamento da população, na construção de melhores condições de vida. Sua utilização é uma forma de quantificar os resultados de ações de governo para, juntamente com análises e ações políticas, compor um método de avaliação global da gestão pública. Este trabalho teve por objetivo construir indicadores que avaliem a capacidade de gestão ambiental urbana dos governos locais das cidades médias paulistas, considerando que esta deve ser uma gestão essencialmente integrada aos demais setores da administração, desde sua estrutura administrativa até a participação da comunidade nas instâncias institucionais, garantindo avanços significativos na proteção ao meio ambiente. Foram consideradas três dimensões institucionais - normativa, participativa e financeira - para elaboração de índices parciais que, posteriormente, foram condensados em um indicador síntese, o Índice de Capacidade de Gestão - ICG, apresentado em três categorias, alta, média e baixa. Como decorrência, foi realizado o ranqueamento destas cidades. Na sua aplicação, é possível agregar informações quantitativas e qualitativas de várias dimensões, conferindo maior consistência às análises locais e regionais das cidades médias, configurando-se, portanto, como um importante subsídio ao planejamento regional e em avaliações de desempenho da gestão pública municipal. / Abstract: Indicators are important tools for decision-making and the empowerment of the population looking for better life conditions. Their use is a way to quantify the government actions results for, jointly with subjective and politics analysis, compose a method of global evaluation of the public management. The purpose of this work is to verify the possibility to construct indicators capable to evaluate the capacity of urban environmental management by local governments of São Paulo’ medium cities. Considering that must be a management essentially integrated to the others sectors of the administration, since the administrative structure up to community participation in the institutional instances, guaranteeing advancements towards environmental protection. Three institutional dimensions - normative, participatory and financial - were considered for partial index elaboration that were condensed in a synthesis indicator, the Index of Management Capacity - ICG, presented in three categories, high, medium and low, and in the ranking of medium cities. In its application, it is possible to add quantitative and qualitative informations of several dimensions, granting bigger consistency to the local and regional analysis of medium cities. Therefore, this index configuring itself as an important subsidy to the regional planning and management performance evaluations. / Mestre
20

Avaliação do desempenho operacional de pequenas e médias empresas de confecção por meio da análise de custos e dos indicadores de perdas do sistema lean

Pedroso, Selma da Silva January 2017 (has links)
Com a competição atual nas indústrias de confecção e o confronto com uma crise da indústria nacional, as pequenas e médias empresas do ramo vêm buscando meios para manterem-se no mercado. Em 2014, o setor têxtil reunia mais de 33 mil empresas das quais mais de 80% eram confecções de pequeno e médio porte. Em todo o território nacional, no referido ano o setor faturou US$ 55,4 bilhões, contra US$ 58,2 bilhões em 2013, refletindo a desvalorização do Real e a queda da produção da indústria pelo quarto ano consecutivo (ABIT, 2015). Após dois anos de recessão, 2017 aponta sinais de início da recuperação do setor. Os dados sinalizam aumento na produção de vestuário de 1%, e o faturamento do setor deverá aumentar 4,6% (ABIT, 2017). Diante disso, conhecer e mensurar as perdas operacionais das indústrias de confecção auxilia na sobrevivência dessas pequenas e médias empresas. Conforme Beber et al. (2004), as perdas são obstáculos na busca da plena eficiência industrial, pois repassam ao consumidor os custos da ineficiência dos processos das empresas, e isso o mercado já não está mais absorvendo. Nesse contexto, a filosofia Lean, com sua sistemática de detecção e análise de perdas, apresenta-se como ferramenta que pode, junto com as informações geradas pelo sistema de custos, formalizar e permitir a mensuração do desempenho dos processos industriais. Diante do exposto, o presente estudo objetiva propor um conjunto de indicadores e escalas de desempenho operacional de pequenas e médias empresas de confecção, utilizando as informações geradas pelo sistema de custos, e as ferramentas de mensuração de perdas do sistema Lean na criação de indicadores de desempenho. Para o alcance do objetivo, além de um estudo bibliográfico, o método foi desenvolvido de acordo com os preceitos do DSR - Design Science Research, sendo aplicado em um cenário real. A aplicação se dá em uma média empresa de confecção de Santa Catarina, onde, durante o processo de aplicação, o método foi analisado e adaptado à organização, de acordo com suas necessidades e limitações. O resultado alcançado foi a proposição e validação, em uma empresa, do conjunto de indicadores e escalas para a avaliação do desempenho operacional, objetivo principal desse estudo. / With the current competition in the clothing industry sector and the confrontation with a crisis of the national industry, the small and medium companies of the branch have been looking for ways to remain in the market. In 2014, the textile sector had more than 33 thousand enterprises of which more than 80 % were small and medium-sized companies. Across the national territory, in that year the sector earned US$ 55.4 billions, against US$ 58.2 billions in 2013, reflecting the devaluation of the Brazilian currency Real and the fall in industrial production for the fourth consecutive year (ABIT, 2015). After two years of recession, 2017 points to be the beginning of the recuperation in the sector. Data indicate an increase in clothing production of 1 %, and the turnover is expected to increase by 4.6% (ABIT, 2017). Given this, knowing and measuring the operational losses of the garment industry helps the survival of these small and medium-sized companies. According to Beber et al. (2004), the losses are obstacles in the search of the full industrial efficiency, as they pass on to the consumer the costs of the inefficiency of the processes of the companies, and that the market is not already absorbing any more. In this context, the Lean philosophy, with its systematic loss detection and analysis, presents itself as a tool that can, together with the information produced by the cost system, formalize and allow the measurement of the performance of the industrial processes. In view of the above, the present study aims to develop a set of indicators and performance scales of small and medium-sized clothing industries, using the information produced by the system of costs, and the tools of mensuration of losses of the system Lean in the creation of indicators of performance. In order to the reach the objective, besides a bibliographical study, the method was developed according to the DSR - Design Science Research precepts, being applied in a real scenario. The application took place in a medium-sized garment company in the Santa Catarina State, Brazil, where the method was analyzed and adapted to the organization according to its needs and limitations. The result was the proposition and validation in a company of the set of indicators and performance scales for the evaluation of operational performance, the main objective of this study.

Page generated in 0.1355 seconds