• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 369
  • 14
  • 13
  • 13
  • 13
  • 12
  • 8
  • 5
  • 5
  • 5
  • 5
  • 3
  • 1
  • 1
  • 1
  • Tagged with
  • 401
  • 401
  • 182
  • 161
  • 123
  • 123
  • 116
  • 65
  • 60
  • 57
  • 56
  • 55
  • 51
  • 40
  • 40
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Uma Apresentação dos principais sistemas relacionados à lógica clássica

Fassbinder, Aracele Garcia de Oliveira 25 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2010 / Made available in DSpace on 2012-10-25T06:45:35Z (GMT). No. of bitstreams: 1 280204.pdf: 1281362 bytes, checksum: a7b27f2b4d871c23c6973d2e84458332 (MD5) / Os principais sistemas relacionados à Lógica Clássica são apresentados. Outrossim, faz-se uma elucidação da Logica Proposicional Clássica, da Lógica Quantificacional Clássica, da Lógica Equacional Clássica, da Lógica Descritiva Clássica e da Lógica das Descrições Indefinidas, a fim de possibilitar uma visão inteligível e holística das mesmas. Para cada uma destas lógicas são fornecidas uma linguagem, uma semântica de valorações e um cálculo de sequentes. Buscamos dar um tratamento geral aos diversos aspectos semânticos e sintáticos, seguindo a perspectiva universal para a construção de ferramentas úteis ao estudo e ao desenvolvimento de lógicas. Dentre estes aspectos está uma abordagem do método dos tablôs por confutação que abstrai as características essenciais desse método em uma generalização cujas instâncias podem ser aplicadas a uma grande variedade de lógicas. Neste trabalho, tal abordagem é aplicada na construção de um sistema de tablôs para a Lógica Proposicional Clássica e para a Lógica Quantificacional Clássica. Também é dado um conceito geral de semântica, o qual corresponde a uma ampla classe de lógicas, e através do mesmo é definido satisfabilidade e relação de consequência. Similarmente, expomos condições gerais de correção e completude dos cálculos de sequentes com respeito às semânticas das lógicas dadas. Outras contribuições são um tratamento minucioso de algumas questões sintáticas relevantes das diversas linguagens formais, tais como um estudo acurado da instanciação e da substituição, sua aplicação para um estudo dos esquemas e das regras concernentes à equivalência e à implicação, apresentação das listas de teoremas, e algumas provas dos considerados mais importantes aos níveis da lógica clássica proposicional, quantificacional, equacional, descritiva clássica, e das descrições indefinidas.
62

Operadores sintáticos para mudança de crenças baseados na representação em formas normais primárias

Marchi, Jerusa January 2006 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-22T16:57:58Z (GMT). No. of bitstreams: 1 239018.pdf: 737897 bytes, checksum: a7eeeef3c07384bd4dbafd8087021419 (MD5) / A área de Mudança de Crenças trabalha com métodos que permitem incorporar uma nova informação à uma base de crenças previamente existente. Estes métodos devem garantir que a base resultante seja consistente e que a base original sofra apenas as mudanças mínimas necessárias para torná-la coerente com a nova informação. Formalmente, a mudança mínima é definida através de um critério de proximidade entre as bases de crenças dado por uma medida de distância entre os modelos das bases. Este critério é usado tanto por métodos de Revisão de Crenças quanto de Atualização de Crenças. Para a área de revisão de crenças, Dalal propôs um operador de revisão que satisfaz os postulados AGM (Alchourrón, Gardenfors, Makinson) e propõe como unidade de medida para a definição de distância o número de símbolos proposicionais que apresentam valores verdade diferentes entre os modelos. Para a área de atualização de crenças, Forbus e Winslett propuseram operadores semânticos que satisfazem os postulados KM (Katsuno, Mendelzon) para a área de atualização de crenças. Todos estes operadores baseiam-se em uma visão semântica das bases de crenças. Neste trabalho são apresentadas versões sintáticas destes operadores de mudança de crenças. Os operadores propostos requerem que a base de crenças seja representada nas formas normais de Implicantes Primários e Implicados Primários. As versões sintáticas propostas são estritamente equivalentes aos operadores de Dalal, Forbus e Winslett. Também são propostos dois novos operadores sintáticos baseados em uma definição diferente de mudança mínima. O novo critério de mudança mínima proposto é definido usando a relação "holográfica" existente entre os literais em uma forma primária e as cláusulas (duais), na outra forma primária, nas quais eles ocorrem. Esta nova abordagem sintática permite criar um contexto para os literais e uma nova visão do processo de mudança de crenças. A nova noção de minimalidade proposta produz mudanças mais pertinentes e menores que a noção usual de distância mínima.
63

Teoria de controle ótimo em sistemas abertos /

Cervati Neto, Alaor. January 2018 (has links)
Orientador: Felipe Fernandes Fanchini / Banca: André Luiz Malvezzi / Banca: Alexandre Luis Magalhães Levada / Resumo: A teoria de informação e computação quântica é uma área de pesquisa que vem crescendo de maneira acentuada nos últimos anos devido aos inúmeros avanços tecnológicos que a acompanham. Neste mestrado começamos nossos estudos nesta área de pesquisa onde nos introduzimos e aprofundamos em seus aspectos intrigantes e peculiares. Dada nossa formação inicial na área de ciências da computação, inicialmente nos dedicamos a entender os aspectos fundamentais da mecânica quântica, assim como da teoria de informação e computação quântica. Focamos principalmente nos sistemas quânticos abertos, visto que o maior obstáculo a ser superado para o desenvolvimento destes computadores é o efeito deletério do meio ambiente. A princípio, concentramos nossos estudos nos ditos processos não-Markovianos, que apresentam efeitos de memória. Aprendemos sobre as novas medidas de não-Markovianidade, principalmente as medidas baseadas na dinâmica do emaranhamento e na dinâmica da informação mútua. Conseguimos publicar nosso primeiro resultado, onde provamos a inequivalência destas duas medidas de não-Markovianidade. De fato, mostramos que tais medidas, em geral, podem discordar sobre o tipo de processo dissipativo, sendo que uma pode reconhecê-lo como Markoviano enquanto outra pode reconhecê-lo como não-Markoviano. Como mostramos, esta inequivalência está diretamente relacionada com o refluxo de informação do meio ambiente para o sistema, e como mensuramos tal informação nestas duas medidas distintas de... / Abstract: Quantum information theory and computation is a field of research that has been growing acutely in the past few years due to the many technological improvements it follows. In this masters' course, we began our studies in this area of research where we were introduced and immersed in its intriguing and peculiar aspects. Given our initial formation in computer science, we initially dedicated ourselves to understanding the fundamentals of quantum mechanics, as well as of information theory and quantum computation. Our main focus were open quantum systems, since the greatest obstacle to the development of these computers is the harmful effect of the environment. At first, we concentrated our studies in the so called non-Markovian processes, that show memory effects. We learned about the new non-Markovianity measurements, mainly those based on the dynamics of entanglement and mutual information. We managed to publish our first result, where we proved the inequivalence of these two measurements of non-Markovianity. Indeed, we showed that such measurements, in general, can disagree about the dissipative process, so that one can regard it as Markovian and the other as non-Markovian. As we demonstrated, this inequivalence is directly related to the information back-flow from the environment to the system, and how this information is measured by each of the two distinct measurements. Finally, in the last stage of our studies, our goal was to find a way to optimize the control of the logical ... / Mestre
64

Crédito massificado x microcrédito : a estratégia dos bancos para conquistar novos mercados

Maioli, Roney Afonso January 2005 (has links)
Esta dissertação tem como objetivo analisar a realidade atual do crédito de varejo, identificando a recente opção das grandes redes bancárias brasileiras em expandi-lo de forma maciça. O exame desta realidade, permeada no universo da microfinança, suas causas, efeitos e facilitadores, permite um entendimento acerca das especificidades deste comportamento dos bancos que, após o Plano Real, voltaram-se agressivamente para o aumento do número de clientes e expansão do crédito. Busca-se contextualizar, inicialmente, a abordagem teórica da intermediação financeira, enfatizando o papel dos intermediários financeiros, a importância dos custos de transação e as ferramentas para resolução dos problemas de seleção adversa e risco moral característicos da informação assimétrica. Além disso, o processo de administração do risco de crédito, e os mecanismos para controlar tal risco, adquirem importância ímpar para o desenvolvimento dos aspectos de microfinanças e massificação de crédito abordados. Para tanto, necessitou-se adentrar no universo do microcrédito buscando compreender essa realidade: seus princípios e objetivos, sua tipologia e principais experiências; e, confrontando-a com aquela concernente ao crédito massificado, verificar o sustentáculo mercadológico e como são resolvidos os problemas de informação assimétrica. Concluiu-se que, se ambos, de alguma forma, são direcionados a segmentos de baixa renda, micro e pequenas empresas, o setor informal e os assalariados, seus objetivos são bastante diversos. O microcrédito enfoca claramente o crédito produtivo e, através dele, busca meios de combater a miséria e a pobreza. O crédito massificado, assim chamado o movimento das grandes instituições bancárias de varejo na ampla disseminação das operações de crédito ao consumidor, apresenta interesses que não se limitam ao crédito produtivo, mas expandem-se nas operações de crédito de consumo. Por fim encontraram-se justificativas mercadológicas adequadas e respostas eficazes aos problemas de informação assimétrica característicos de cada uma das estratégias.
65

Análise de um gerador óptico para um Qubit codificado em um oscilador / Analysis of all-optical state generator for “encoding a Qubit in an oscillator

Policarpo, Samy Clever 26 February 2016 (has links)
POLICARPO, Samy Clever. Análise de um gerador óptico para um Qubit codificado em um oscilador. 2016. 46 f. Dissertação (Mestrado em Engenharia de Teleinformática)–Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2016. / Submitted by Hohana Sanders (hohanasanders@hotmail.com) on 2017-03-31T12:00:47Z No. of bitstreams: 1 2016_dis_scpolicarpo.pdf: 1932794 bytes, checksum: e4e2239107a8e38dbaa7abd746f5ae73 (MD5) / Approved for entry into archive by Marlene Sousa (mmarlene@ufc.br) on 2017-06-02T13:40:21Z (GMT) No. of bitstreams: 1 2016_dis_scpolicarpo.pdf: 1932794 bytes, checksum: e4e2239107a8e38dbaa7abd746f5ae73 (MD5) / Made available in DSpace on 2017-06-02T13:40:21Z (GMT). No. of bitstreams: 1 2016_dis_scpolicarpo.pdf: 1932794 bytes, checksum: e4e2239107a8e38dbaa7abd746f5ae73 (MD5) Previous issue date: 2016-02-26 / The fault-tolerant quantum computation scheme proposed by Gottesman, Kitaev, and Preskill (GKP) in Phys. Rev. A, 64, 012310 (2001) can be performed using relatively simple linear optical resources and provides a natural protection against arbitrary small errors. On the other hand, preparing the initial GKP states is a difficult task. A few proposals to generate GKP states have been done over the last years. Our objective here is to analyze the performance of a particular GKP generator that uses cat states, linear optical devices, squeezing, and homodyne detection. We use numerical simulations to study the behavior of the fidelity between the generated and the ideal states and show that the proposal in consideration is indeed a promising scheme. / O esquema de Computação Quântica tolerante a falhas proposto por Gottesman, Kitaev e Preskill (GKP) em Phys. Rev. A, 64, 012.310 (2001) pode ser realizado utilizando recursos ópticos lineares relativamente simples e fornece uma proteção natural contra pequenos erros arbitrários. Por outro lado, a preparação dos estados iniciais GKP e uma tarefa difícil. Algumas propostas para gerar estados GKP foram feitas ao longo dos últimos anos. Nosso objetivo aqui e analisar o desempenho de um gerador de estados GKP particular que usa estados gato de Schrodinger, dispositivos ópticos lineares, compressão e detecção homódina. Usamos simulações numéricas para estudar o comportamento da fidelidade entre os estados ideais e os estados gerados e mostramos que a proposta aqui considerada de de fato um esquema promissor.
66

O princípio da informação no direito tributário / Rejane Teresinha Scholz ; orientador, James José Marins de Souza

Scholz, Rejane Teresinha January 2005 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2005 / Inclui bibliografia / A sociedade hodierna caracteriza-se pela velocidade com que o conhecimento, inclusive o científico, sofre alterações, a confirmar a noção de provisoriedade, própria da ciência em geral. A informação é o veículo que permite a expansão do conhecimento, nos
67

Desenvolvimento em linguagem de descrição de hardware de codificador e decodificador Reed-Solomon

Grimm, Tomás January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2014. / Made available in DSpace on 2014-08-06T18:05:10Z (GMT). No. of bitstreams: 1 326405.pdf: 5445113 bytes, checksum: 1612d9c955940119466d9f3e286652a1 (MD5) Previous issue date: 2014 / Atualmente, diversos sistemas de comunicação demandam grandes volumes de tráfego de dados para consumo quase instantâneo. Estes dados devem ser entregues aos usuários tal qual foram gerados: sem erros. Por isso, técnicas de controle e correção de erros estão intrinsecamente ligadas aos sistemas que realizam trocas de dados, sejam sistemas de armazenamento, os quais estão sujeitos a falhas durante a leitura, ou sistemas de comunicação, que estão sujeitos às adversidades do meio (radiação, interferência eletromagnética, desvanecimento, entre outros). Neste cenário, os códigos Reed-Solomon representam uma solução viável para inúmeras aplicações, bem como pesquisas acadêmicas, mesmo tanto tempo após sua invenção. Este trabalho realiza um estudo da teoria que embasa os códigos Reed-Solomon, assim como implementa as técnicas do estado-da-arte dos módulos que compõem tanto o codificador quanto o decodificador, as quais são prototipadas em hardware reconfigurável.<br>
68

Representação de dados semânticos em agentes BDI

Campos, Diogo de January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014 / Made available in DSpace on 2015-02-05T20:56:54Z (GMT). No. of bitstreams: 1 332122.pdf: 508583 bytes, checksum: b385a4821591685cb01e9c52fe87ad5e (MD5) Previous issue date: 2014 / A crescente necessidade de informação e consequente aumento no volume de comunicação tem conduzido a adoção de dados semânticos e resultando numa demanda por ferramentas que manipulam tais dados. Com o avanço de dados semânticos na Web, estamos atingindo um ponto onde ferramentas de software devem se adaptar a este novo formato. Este trabalho propõe um novo modelo para desenvolvimento de agentes inteligentes da IA baseados em um modelo de logica BDI, com o objetivo de permitir comunicação livre de ambiguidade e capaz de reutilizar dados semânticos já existentes na Web. O modelo propõe uma alternativa para a representação de dados semânticos no agente, como estes dados podem ser armazenados e utilizados para comunicação com triplestores da Web Semântica e também com outros agentes (semânticos e não semânticos). Com foco na representação destes dados semânticos, são exploradas maneiras de se integrar informação semântica a um agente, seus processos e estados e porque esta integração pode levar a melhores resultados quando acessando informação na Web. Além disso, e demonstrado o ganho que se pode obter ao reutilizar dados já existentes na Web Semântica, e como isto pode facilitar o desenvolvimento de novas aplicações baseadas em agentes. Finalmente, para avaliar o modelo proposto, e feita uma comparação qualitativa com outros trabalhos na área, levantando as diferenças, motivações e melhorias feitas neste trabalho. Uma implementação deste modelo e apresentada através de um arcabouço criado para demonstrar e validar as intenções deste trabalho. Este arcabouço chamado PySA e descrito expondo os principais pontos defendidos na proposta, testando em situações hipotéticas e exemplos reais a comunicação e aprendizado semanticamente rico que são os objetivos do trabalho.<br> / Abstract: Increasing needs for information and consequent increase in communication volume are leading to a widespread adoption of semantic data and demand for tools that manipulate such data. With the uprising of Semantic Web data, we are reaching a point where software tools must adapt to this new format. This work proposes a new model for developing intelligent agents based on a BDI reasoning model, with the goal of allowing ambiguity free communication and capable of reusing semantic data that already exists in the Web. The model proposes an alternative to representing semantic data in agents, and how this data can be stored and utilized to communicate with Semantic Web stores and also other agents (semantic and non-semantic). Focusing on the representation of this semantic data, this work explores ways to integrate semantic information to an agent, it's processes and states and why this integration can lead to better results when acessing information in the Web. On top of that, this work demonstrates what gain can be obtained from reutilizing data that already exists in the Semantic Web, and how this eases the development of new agent-based applications.Finally, to evaluate the proposed model, a qualitative comparison is made with similar work in the area, comparing the dierences, motivations and improvements made in this project. An implementation of this model is presented through a framework created to demonstrate and validate in practice the intentions of this project. This framework called PySA is described, exposing the main values defended in the proposal, testing in hypothetical situations and real examples the semantically rich communication and learning capabilities that are the main goal of this work.
69

Método para geração e otimização de funções de pertinência para previsão de séries temporais

Schwaab, Andréia Alves dos Santos January 2017 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2017. / Made available in DSpace on 2017-11-21T03:20:45Z (GMT). No. of bitstreams: 1 348592.pdf: 3429575 bytes, checksum: 5f5db8da76b5171d81e65e546768d488 (MD5) Previous issue date: 2017 / Sistemas fuzzy são utilizados para diversos tipos de aplicações cujos domínios são caracterizados por vagueza e imprecisão. Para que um sistema atue de forma apropriada, isto é, para que alcance os resultados almejados, é necessário definir a base de conhecimento adequadamente. Isso significa definir o conjunto de regras e as funções de pertinência condizentes com o problema. Em sua forma tradicional, um sistema fuzzy é projetado utilizando funções de pertinência tipo 1, cujo grau de pertinência atribuído a cada elemento do conjunto é um valor numérico. No entanto, uma abordagem alternativa também considerada apropriada emprega funções de pertinência tipo 2, cujo grau de pertinência é também fuzzy. A definição dessas funções de pertinência, contudo, é uma etapa complexa, sem metodologia ainda definida e dependente da aplicação, sendo muitas vezes estabelecida com o auxílio de especialistas, heuristicamente, ou por meio de sucessivas simulações ou algoritmos de busca e otimização. Nessa direção, esta pesquisa propõe um método híbrido para a geração de funções de pertinência otimizadas por um Algoritmo Genético (AG) que admite tanto funções tipo 1 quanto funções tipo 2 intervalares. O método permite detalhar o total de conjuntos empregados por variável do problema, assim como o tipo da função de pertinência de cada conjunto fuzzy. A avaliação do método proposto foi realizada em previsão de séries temporais e por meio da análise estatística dos resultados. Para fins de comparação, implementou-se também a otimização de funções de pertinência tipo 1 e tipo 2, exclusivamente. Os resultados do método proposto mostraram-se promissores, pois os erros médios obtidos são semelhantes aos dos melhores resultados obtidos por abordagens que empregam exclusivamente funções tipo 1 ou funções tipo 2. Além disso, a diminuição do total de conjuntos contribui para a interpretabilidade do modelo em termos de complexidade. / Abstract : Fuzzy systems are used for various types of applications whose domains are characterized by vagueness and imprecision. For a system to act suitably, that is, to achieve the desired results, it is necessary to adequately define the knowledge base. This means defining the set of rules and the membership functions that are suitable to the problem. A fuzzy system is traditionally designed by using type-1 membership functions, for which the degree of membership attributed to each element of the set is a numeric value. Nevertheless, an optional approach also considered appropriate uses type-2 membership functions whose degree of membership is also fuzzy. The definition of these membership functions, however, is a complex step, for which there is still no defined methodology and which is dependent on the application. It is often established with the assistance of specialists, either heuristically or through a series of simulations or by using search and optimization algorithms. In this context, this study proposes a hybrid method for the generation of membership functions that are optimized for a Genetic Algorithm that admits both type-1 and interval type-2 membership functions. The method allows detailing the number of sets used per variable of the problem, as well as the type of membership function of each fuzzy set. The evaluation of the method proposed was conducted by predicting time series data and by conducting a statistical analysis of the results. For comparative purposes, the type-1 and type-2 membership functions were optimized, exclusively. The results of the proposed method revealed themselves to be promising, because the mean errors obtained are similar to the best results obtained through approaches that exclusively use type-1 or type-2 membership functions. Moreover, the decrease in the total number of sets contributes to the interpretability of the model in terms of complexity.
70

Contribuição ao estudo do papel da controladoria nos processos de demandas informacionais : problemas de comunicação e assimetria informacional

Santos, Sérgio Luiz dos January 2010 (has links)
Este trabalho aborda a necessidade de multifuncionalidade na Controladoria nas organizações existentes, em função das demandas informacionais exigidas nos dias atuais. Demandas estas que, se não atendidas e entendidas, podem provocar um impacto no resultado econômico e financeiro da empresa, com consequências que colocam em risco, inclusive a sobrevivência da mesma. Entende-se por demanda informacional, as necessidades informativas dos usuários – todos aqueles que detiverem maior ou menor poder decisório – que venham a facilitar na redução das incertezas nas tomadas de decisões revertendo em prol do próprio objetivo intrínseco de uma empresa: sua rentabilidade. Necessidades informativas não significam somente aquelas informações mensuráveis, mas também, toda e qualquer informação que de alguma forma contribua para a tomada de decisões. Se observarmos a empresa numa visão sistêmica, a demanda informacional estará em constante transformação e cabe à Controladoria retroalimentar este sistema, servindo de certa forma, também, de “usuário” na medida em que possui uma interdependência quanto à organização e utilização de informações. Justamente pela amplitude do tema e do papel da Controladoria propriamente dita, recorre-se a vários ramos do conhecimento como suporte – abordando-se desde a visão pragmática de negócios com a Contabilidade, passando pela Economia, Economia da informação, aporte da Teoria da Agência e conceito de Assimetria informacional, até as interrogações de entendimento e estudo linguístico com a utilização da Semiótica e suas questões semânticas. Também estão incluídos os estudos dos processos e teorias de informação e de comunicação que, seguindo certo rigor teórico, são conceitos diferentes e, por isso, teorias diferentes e fundamentais para entender como se constituem e se processam as informações dentro da estrutura organizacional, de que forma podem se reprocessar para constituir um novo tipo de relacionamento e a importância da Controladoria na constituição deste novo modelo. Em suma, este trabalho busca a interlocução destas várias ciências – Economia, Contabilidade e Comunicação, exigência para os profissionais que pretendam, direta ou indiretamente, envolverem-se com as questões de Controladoria. / This paper addresses the need for multi-functionality on the Controllership in the existing organizations, according to the informational demands required nowadays. These demands which, if not addressed and understood, can cause an impact on the company economic and financial results, with consequences that threaten even its survival. Informational demand is understood as the information needs of users – all of those who hold more or less decision-making power - that will facilitate the reduction of uncertainty in decision-making in favor of reversing the own intrinsic goal of a company: its profitability. Information needs do not mean only those measurable information, but also any information that somehow contributes to the decision-making. Looking at the company in a systemic view, the informational demand will be constantly changing and it is up to the Controllership to give feedback for this system, serving in a way, also, as the "User" as it has an interdependence in the organization and use of information. Due to the scope of the theme and the role of the Controllership itself, it resorts to various branches of knowledge and support - approaching from the pragmatic view of business with Accounting, through Economics, Economics of Information, contribution of the Agency Theory and concept of Information asymmetry, to the questions of understanding and linguistic study with the use of semiotics and its semantic issues. Also included are studies of information and communication processes and theories, following some theoretical rigor, the concepts are different and therefore different and fundamental theories to understand how they form and process the information within the organizational structure of how they can be reprocessed to form a new type of relationship and the importance of Controllership on the constitution of this new model. In short, this work aims at dialoguing these various sciences - Economics, Accounting and Communication, a demand for professionals who wish to, directly or indirectly, engage with the issues of Controllership.

Page generated in 0.4976 seconds