• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 908
  • 47
  • 42
  • 11
  • 10
  • 10
  • 10
  • 9
  • 7
  • 2
  • 1
  • 1
  • Tagged with
  • 1016
  • 440
  • 273
  • 148
  • 145
  • 134
  • 130
  • 130
  • 123
  • 113
  • 89
  • 88
  • 80
  • 78
  • 78
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Uma metodologia de apoio a modelagem unificada de sistemas interativos : uma aplicacao da pesquisa opercional

Vale Junior, Otoni Cardoso 09 May 2003 (has links)
Made available in DSpace on 2019-04-05T23:01:24Z (GMT). No. of bitstreams: 0 Previous issue date: 2003-05-09 / The modeling of interactive systems is a developing activity that must be performed to construct systems with quality. During this activity, the aplication of methods and models is very important, each one responsible for the definition of procedures and notations that must be followed and/or used by the system developer. In the literature does exist CASE tools, that by one hand, provide work agility to the developer, but by the other hand, require specific knowledge about methods and/or models, that are implemented by them. Furthermore, they offer little support to the modeling reuse of an interactive system. A considerable variety of measures are identified in this work to reduce the problems implications about the overload of knowledge required to the developer, like the unification of processes and models belong others. The unification of processes and models consist of construct a well defined group of process and models, that provide respetively the most important advantages provided by the existing process, and the idenfication of the several system aspects in a integrated and detailed point of view. The advantage of this will be the providing of more flexible tools that support any method and/or model, without imposing restrictions of use to the developer. This unification is possible by performing the processes of construction and aplication of modeling concepts, described in the methodologie called META. Modeling concepts are informations intrisic to methods and models organized in different levels of abstraction and interconnected by relationships (like: inheritance and composition). This hierarchical organization facilitate the process of construct a concept by the reuse of specifications of the existing concepts. In this work, were pre-defined some modeling concepts in a graphical and formal specification, obtained from similar characteristics found in methods and/or models. To ilustrate the process of aplication, the concepts presented in this work are validated, with the modeling of an module of Operations Research learning, visualizing the pressing dificulties from this application area indentified during the comparative study between learning systems. / A modelagem de sistemas interativos é uma atividade de desenvolvimento que deve ser realizada para se obter sistemas de qualidade. Durante esta atividade, é importante a aplicação de métodos e/ou modelos, cada qual responsável pela definição de procedimentos e notações que devem ser seguidos e/ou usados pelo desenvolvedor do sistema. Há na literatura, ferramentas CASE, que se por um lado, agilizam o trabalho do desenvolvedor, por outro, lhe exigem conhecimentos específicos sobre os métodos e/ou modelos, que elas implementam. Além disto, elas oferecem pouco suporte à reutilização da modelagem de um sistema interativo. Neste trabalho, foram identificadas algumas providências para amenizar os problemas inerentes à sobrecarga de conhecimentos requeridos ao desenvolvedor, dentre as quais a unificação de métodos e de modelos. A unificação de métodos e modelos consiste na construção de um método capaz de englobar as principais vantagens oferecidas pelos demais, e de um grupo bem delimitado de modelos que proporcionem a identificação de diversos aspectos do sistema, numa perspectiva rica e integrada de visões complementares. A vantagem disto seria haver ferramentas mais flexíveis que suportassem qualquer método e/ou modelo, não impondo restrições de utilização ao desenvolvedor. Esta unificação é possível através da realização dos processos de construção e aplicação de conceitos de modelagem, descritos na metodologia META. Conceitos de modelagem são informações inerentes a métodos e modelos organizados em diferentes níveis de abstração e interligados através de seus relacionamentos (como: herança e composição). Esta organização hierárquica facilita o processo de construção de um conceito através do reuso de especificações de conceitos já existentes. Neste trabalho foram pré-definidos vários conceitos de modelagem dentro de uma especificação gráfica e formal, os quais foram obtidos a partir de características semelhantes encontradas em métodos e/ou modelos. Para ilustrar o processo de aplicação, são validados os conceitos apresentados neste trabalho, com a modelagem de um módulo de aprendizagem de Pesquisa Operacional, tendo em vista as dificuldades prementes desta área de aplicação identificadas durante o estudo comparativo entre os sistemas de aprendizagem.
2

Investigación operacional (MTA2): método gráfico

14 January 2013 (has links)
Método gráfico en investigación operacional.
3

Investigación operacional (MTA3): Método Simplex

14 January 2013 (has links)
Método Simplex e interpretación del reporte solución en LINGO.
4

Investigación operacional (MTA4): interpretación de reporte de resultados en Lingo

14 January 2013 (has links)
Reporte Lingo e interpretación de resultados.
5

Investigación operacional (MTA5): modelos de programación entera y por metas

14 January 2013 (has links)
Problemas de programación, entera, binaria y por metas.
6

Investigación operacional (MTA6): redes PERT - CPM

14 January 2013 (has links)
Redes PERT - CPM.
7

Projeto de um amplificador operacional CMOS de baixa tensão do tipo rail-to-rail

Lacerda, Fábio de, Instituto de Engenharia Nuclear 12 1900 (has links)
Submitted by Marcele Costal de Castro (costalcastro@gmail.com) on 2017-09-11T17:56:14Z No. of bitstreams: 1 FABIO DE LACERDA M.pdf: 2612765 bytes, checksum: 35a458410db6cc1af2cfe26670f1483b (MD5) / Made available in DSpace on 2017-09-11T17:56:15Z (GMT). No. of bitstreams: 1 FABIO DE LACERDA M.pdf: 2612765 bytes, checksum: 35a458410db6cc1af2cfe26670f1483b (MD5) Previous issue date: 2001-12 / Este trabalho descreve o procedimento de projeto de amplificadores operacionais em tecnologia CMOS. Para isto, foram objetos deste processo dois amplificadores com especificações distintas. O primeiro foi o amplificador canônico com compensação interna do tipo Miller, cujas especificações incluíram a tensão de alimentação de 3V, o ganho mínimo de malha aberta em baixas freqüências de 60dB e a freqüência de ganho unitário de 4MHz para uma carga externa de 10kΩ em paralelo com 10pF. O segundo, já aplicando o aprendizado que resultou do primeiro, foi um amplificador operacional do tipo rail-to-rail na entrada e na saída, com especificações mais exigentes: tensão de alimentação de 3V, ganho mínimo de malha aberta em baixas freqüências de 80dB e freqüência de ganho unitário de 10MHz para carga externa de 10kΩ em paralelo com 10pF. Os resultados obtidos a partir de protótipos fabricados em tecnologia CMOS de 0,8µm para o primeiro amplificador e 0,6µm para o segundo foram bastante próximos às especificações. Por exemplo, as excursões de entrada e de saída do segundo amplificador mostraram-se perfeitamente compatíveis com amp-ops rail-to-rail típicos enquanto as demais características medidas confirmaram que o procedimento de projeto adotado foi bastante adequado. / This dissertation describes the process of designing operational amplifiers in CMOS technology. To accomplish this, the author focused on two amplifiers with distinct specifications. The first one was the canonical amplifier with internal Miller compensation, whose specifications included the nominal power supply of 3V, minimum open-loop low-frequency gain of 60dB and unity-gain frequency of 4MHz driving an external load of 10kΩ in parallel with 10pF. The second one, exploiting the experience obtained from the previous amplifier, was an operational amplifier with rail-to-rail input and output with more rigorous specifications: 3V power supply, minimum open-loop low-frequency gain of 80dB and 10MHz unity-gain frequency driving an external load of 10kΩ in parallel with 10pF. Prototypes of the canonical amplifier were fabricated in 0.8µm CMOS technology while the rail-to-rail amplifier was implemented in 0.6µm CMOS technology. Experimental results were in very good agreement with the specifications. For example, input and output signal swings from the second amplifier proved to be fully compatible with typical rail-to-rail op-amps while the remaining characteristics confirmed that the design process was very adequate.
8

EstruturaÃÃo e validaÃÃo de um balanced scorecard para avaliaÃÃo da gestÃo de estoques em empresas de bebidas / Design and validation of a balanced scorecard for the evaluation of inventory management in soft drink business

Leo Anderson da Silva Silvestre 22 May 2013 (has links)
The structure of of a Balanced Scorecard (BSC) focused on Inventory Management brings a new perspective of using this tool that had previously only use the strategic level of the company. However, in order to check that the indicators chosen for their design is related to the company's results it is necessary that this rating system is analyzed through a quantitative approach. This study aims to develop a method that helps to check If the indicators are aligned with the financial and operating results, by checking the degree of inter-relationship among these results and other indicators present at the Balanced Scorecard (BSC) facing the Inventory Management. The method presents the coefficient of each indicator stock, trying to confirm that it is actually directed to the company's results and thus confirm that the BSC has aligned with the company's strategy, considering the degree of importance of each indicator to inventory management and to obtain results for the company. For this purpose, have used three tools for analysis and processing of data that formed the basis for the construction of the proposed method: Analysis of Variance, Correlation, Multivariate Model (Multiple Regression). The proposed method was applied in a large company in the beverage industry, and was effective as a helpful instrument for the validation and support of a Balanced Scorecard. Through the results achieved it was verified that some indicators are aligned with the financial and operating results of the company and it was also possible to establish a degree of importance of each indicator stock for every aspect of the company's results, either operating or finance. / A estruturaÃÃo de um Balanced Scorecard (BSC) voltado para a GestÃo de Estoques traz uma nova perspectiva de utilizaÃÃo desta ferramenta que antes sà tinha sua utilizaÃÃo no nÃvel estratÃgico da empresa. Contudo, a fim de verificar se os indicadores escolhidos para sua concepÃÃo tem relaÃÃo com os resultados da empresa à necessÃrio que este sistema de avaliaÃÃo seja analisado atravÃs de uma abordagem quantitativa. Assim, este trabalho objetiva desenvolver um mÃtodo que contribua para a verificaÃÃo se os indicadores estÃo alinhados com os resultados financeiro e operacional, atravÃs da verificaÃÃo do grau de inter-relacionamento dentre estes resultados e os demais indicadores presentes no Balanced Scorecard (BSC) voltado para a GestÃo de Estoques. O mÃtodo apresenta o coeficiente de cada indicador de estoque, procurando confirmar que ele està realmente direcionado ao resultado da empresa e, assim, confirmar se o BSC tem està alinhado com a estratÃgia da empresa, tendo em vista o grau de importÃncia de cada indicador para a gestÃo de estoques e para a obtenÃÃo de resultado para a empresa. Com esse objetivo, foram utilizadas trÃs ferramentas de anÃlise e tratamento de dados que serviram de base para a construÃÃo do mÃtodo proposto: a AnÃlise de VariÃncia, a CorrelaÃÃo, o Modelo Multivariado (RegressÃo MÃltipla). O mÃtodo proposto foi aplicado em uma grande empresa do setor de bebidas, e mostrou-se eficaz como um instrumento de auxÃlio e suporte na validaÃÃo de um Balanced Scorecard. AtravÃs dos resultados alcanÃados foi possÃvel verificar que alguns indicadores estÃo alinhados com os resultados financeiros e operacionais da empresa e, tambÃm foi possÃvel estabelecer um grau de importÃncia de cada indicador de estoque para cada aspecto de resultado da empresa, seja ele operacional ou financeiro.
9

Collaborative systems in logistics and transportation

Basso Sotz, Franco Fabián January 2018 (has links)
Doctor en Sistemas de Ingeniería / Durante los últimos años, la colaboración horizontal en logística ha ido ganando atención en la literatura especializada debido a los beneficios reportados, como la reducción de costos, un aumento en las tasas de cumplimiento y una disminución en las emisiones de CO2 debido a las reducciones en las distancias recorridas. Sin embargo, los casos exitosos en el mundo real son raros, ya que la cooperación horizontal en logística no suele ser sostenible. El primer paper de esta tesis presta atención a esta paradoja discutiendo 16 problemas prácticos los cuales podrían explicar este fenómeno. Proponemos una taxonomía compuesta por cuatro categorías que clasifican los problemas prácticos de acuerdo con un enfoque de cadena de valor, a saber: diseño, planificación y operaciones, mercado/negocio y comportamientos. Además, proponemos y discutimos algunas medidas para mitigar estos problemas prácticos. El segundo paper proporciona otra explicación para la falta de aplicaciones reales de la colaboración horizontal en logística. Hasta ahora, los modelos de investigación operativa utilizados para estudiar la colaboración horizontal en el transporte, no han incluido competencia entre empresas. Los contratos están firmados, y tanto las cantidades como los precios son fijos. Consideramos un juego de formación de coaliciones, pero previo al equilibrio de mercado; es decir, proponemos un modelo de colaboración en el que, una vez firmados los acuerdos, las diferentes firmas y coaliciones compiten en múltiples mercados según un modelo Cournot. Cuando esto sucede, la formación de un conjunto de coaliciones afecta los precios y los niveles de producción de todos los demás competidores, algo que no ocurre en la literatura previa. Se permiten y estudian posibles asociaciones entre estas empresas. Proponemos múltiples modelos para responder la pregunta de qué coaliciones se formarían en este entorno, incluidas restricciones de estabilidad y la restricción de que el acuerdo debe ser aprobado por las autoridades antimonopolio. Nuestro principal hallazgo es que, a diferencia de lo que se ha encontrado en la literatura hasta la fecha, la conformación de coaliciones que son beneficiosas para las empresas, y al mismo tiempo, susceptibles de ser aprobadas por las autoridades antimonopolio, es bastante difícil. Finalmente, en el tercer paper, estudiamos un sistema de información compartida en el que los usuarios de una autopista urbana comparten con un sistema centralizado, datos como la posición, el tipo de vehículo y la velocidad. Desarrollamos modelos de predicción de accidentes para un tramo de la autopista urbana Autopista Central en Santiago, Chile, utilizando datos desagregados capturados por peaje de flujo libre con identificación automática de vehículos (AVI) que, además de su bajo índice de fallas, tienen la ventaja de proporcionar información desagregada por tipo de vehículo. El proceso incluye un procedimiento Random Forest para identificar los mejores precursores de accidentes, y la calibración/estimación de dos modelos de clasificación, a saber, Support Vector Machines y regresión logística. Encontramos que, para este tramo de la carretera, la composición de los vehículos no juega un papel importante. Nuestro mejor modelo predice el 67,89 % de los accidentes con un índice de falsos positivos del 20,94 %. Estos resultados se encuentran entre los mejores en la literatura, aunque, a diferencia de esfuerzos previos, nuestros modelos están validados con datos reales en los cuales los accidentes son eventos raros. / Este trabajo ha sido parcialmente financiado por CONICYT
10

Arquitetura de hardware de baixo custo para sistemas tempo real distribuídos

Pontremoli, Moises de Moura Behar January 1998 (has links)
Sistemas em tempo real caracterizam-se como tal quando seu correto funcionamento depende não apenas do correto processamento lógico de entradas e saídas, mas também da observância de restrições temporais na geração dos sinais de saída. Assim sendo, uma das características principais de dispositivos usados em aplicações em tempo real é seu determinismo, ou seja, sua capacidade de responder, em qualquer circunstância, dentro de limites de tempo previamente determinados. Sendo esta característica um requisito básico, percebe-se a vantagem de dispor de um hardware que a incorpore. Facilitando o desenvolvimento de aplicações para esse tipo de controle, com um melhor desempenho. Visando atender esta necessidade, este trabalho apresenta uma arquitetura de hardware de baixo custo para desenvolvimento de aplicações com requisitos de tempo-real para sistemas de controle distribuído. Cada unidade de processamento da arquitetura distribuída é formada pelos seguintes elementos: • Processador principal: • Gerenciador de timer e de tarefas: responsável pela gerência de timer e interrupções, bem como pela gerência dos instantes de ativação das tarefas concorrentes e sincronização com outras unidades de processamento do sistema distribuído de automação. • Processador de comunicação: responsável pela comunicação entre tarefas, incluindo o mapeamento para o protocolo de comunicação usado no barramento industrial (como por exemplo o Profibus). • Periféricos, tais como memórias, co-processadores aritméticos, unidades de disco, etc. A principal novidade proposta é o aproveitamento do baixo custo dos microcontroladores comerciais, atribuindo funções específicas para cada um, deixando o peso computacional do sistema operacional, na sua maior parte, em processadores diferentes do responsável pelo processamento das tarefas da aplicação. Dentre as vantagens da arquitetura proposta cabe aqui mencionar: • Aumento do poder de processamento de uma Unidade de Processamento das tarefas da aplicação do usuário. • Maior facilidade em obter o determinismo temporal, característica fundamental em sistemas tempo-real distribuídos. • Possibilidade de utilização de algoritmos de escalonamento mais complexos e especializados, sem uma sobrecarga proibitiva no desempenho do sistema. Os primeiros resultados obtidos com esta arquitetura, quando comparados com o exemplo industrial utilizado, são promissores. A recepção da comunidade científica também foi positiva, fato que pode ser medido pela aceitação dos diversos artigos apresentados e/ou publicados que basearam-se na arquitetura proposta nesta dissertação, quais sejam o 4th IFAC Workshop on Algorithms and Architectures for Real-Time Control [PoPe97b], Special Section of IFAC Control Engineering Practice Journal [PoPe97c], Tercer Taller Iberoamericano de Microeletrónica y sus Aplicaciones [Souza97], Euromicro'97 Workshop on Real-Time Systems [Parisoto97], Seminário Interno do DELET e IEE [PoPe96], Revista Egatea [PoPe97a] e o XII Congresso Brasileiro de Automática [PPS98]. / This work presents a low-cost hardware architecture that enhances the performance and increases the predictability of real-time distributed systems. The proposed architecture overcomes one of the major drawbacks of conventional architectures based on a single processar: the overload imposed by operating system activities. The architecture makes use of dedicated hardware units based on low cost microcontrollers. One microcontroller takes care of functions involving the management of task scheduling and time-dependent activation. Since scheduling algorithm tasks do not compete with application tasks anymore, they can be even more sophisticated and specialized. Another microcontroller is responsible for all activities related to inter-process communication, including the execution of communication drivers. It uses the processing capability to exchange data with the network, allowing the last microcontroller to expend more time in operations associated with the user's application. Not only the overall system performance is increased but the system behavior tends to be more deterministic, a very important characteristic when developing real-time applications.

Page generated in 0.0727 seconds