• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 80
  • 13
  • 6
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 99
  • 19
  • 16
  • 16
  • 16
  • 15
  • 15
  • 14
  • 14
  • 14
  • 14
  • 14
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

A relação entre produtividade do trabalho e capacitação: um estudo de caso nas organizações militares do sistema de telemática do Exército Brasileiro

Tourinho, Artur Chaves 13 September 2011 (has links)
Submitted by Artur Chaves Tourinho (artur.tourinho@terra.com.br) on 2012-02-14T01:02:30Z No. of bitstreams: 1 Artur_Chaves_Tourinho.pdf: 1177607 bytes, checksum: d0c380c091cf0d2107354cf464dbdc1a (MD5) / Approved for entry into archive by ÁURA CORRÊA DA FONSECA CORRÊA DA FONSECA (aurea.fonseca@fgv.br) on 2012-02-15T17:38:54Z (GMT) No. of bitstreams: 1 Artur_Chaves_Tourinho.pdf: 1177607 bytes, checksum: d0c380c091cf0d2107354cf464dbdc1a (MD5) / Approved for entry into archive by Marcia Bacha (marcia.bacha@fgv.br) on 2012-02-15T18:41:47Z (GMT) No. of bitstreams: 1 Artur_Chaves_Tourinho.pdf: 1177607 bytes, checksum: d0c380c091cf0d2107354cf464dbdc1a (MD5) / Made available in DSpace on 2012-02-15T18:42:37Z (GMT). No. of bitstreams: 1 Artur_Chaves_Tourinho.pdf: 1177607 bytes, checksum: d0c380c091cf0d2107354cf464dbdc1a (MD5) Previous issue date: 2011-09-13 / Este trabalho apresenta relações entre a produtividade do trabalho e as capacitações que ocorreram nas Organizações Militares (OM) de telemática do Exército Brasileiro (EB), que representam o Sistema de Telemática do Exército (SisTEx). O período do estudo se dá entre janeiro de 2010 e julho de 2011. O SisTEx é melhor caracterizado pelo Centro Integrado de Telemática do Exército (CITEx), pelos Centros de Telemática de Área (CTA) e pelos Centros de Telemática (CT), subordinados ao Departamento de Ciência e Tecnologia (DCT) e dispostos ao longo de todo o território nacional. O estudo trata do conceito de produtividade do trabalho e do processo de capacitação no SisTEx. Fala sobre as áreas do conhecimento de interesse sistêmico e das áreas estratégicas que devem ser atendidas com capacitações, mostrando os resultados que surgiram em função das capacitações realizadas. Propõe sugestões para alinhar as necessidades de capacitação com as áreas estratégicas, destacando a importância das capacitações no planejamento estratégico, passando pelos interesses individuais. Relaciona estratégias que representam um diferencial competitivo na agregação de valor aos usuários. Traz comentários sobre a utilização do ensino a distância(EAD) e presencial para realização das capacitações. Trata da interferência das capacitações na produtividade e na percepção sobre o retorno do investimento (ROI). Relaciona, ainda, as capacidades do SisTEx com os estudos de inovação tecnológica no setor de serviços. Destaca as capacitações realizadas na áreas da segurança da informação e defesa cibernética. Considera que é possível melhorar a produtividade do trabalho em função das capacitações que ocorrem no SisTEx, que contribuem como um vetor de modernidade e transformação que agem diretamente no processo produtivo, proporcionando assim uma aceleração no desenvolvimento da qualidade dos serviços de TI prestados. Traz recomendações de estudos futuros para verificar a velocidade de acumulação das capacidades tecnológicas, o uso do EAD para capacitações de maior complexidade técnica e a criação de métricas para cálculo efetivo do ROI. Para tal, foi feito um estudo bibliográfico sobre a produtividade do trabalho e o processo de capacitação do SisTEx. O método adotado foi o do estudo de caso. Foram feitos questionamentos (survey) e enquetes/votações (poll) que foram aplicados nos chefes, exchefes de CTA/CT e nos discentes do SisTEx, militares que realizaram capacitações no período considerado. / This paper presents the relationship between labor productivity and the training that occurred under the Military Organizations (OM) of telematics of the Brazilian Army (EB), which represent the System of Telematics of the Army (SisTEx). The study period is between January 2010 and July 2011. The SisTEx is best characterized by the Center for Integrated Telematics of the Army (CITEx), the Centers for Telematics of Area (CTA) and the Centers for Telematics (CT), subordinate to the Department of Science and Technology (DCT) and mounted throughout the national territory. The study deals with the concept of labor productivity and the training process in SisTEx. Talks about the knowledge areas of systemic interest and strategic areas that must be attended with training, showing the results that emerged due to the training accomplished. Makes suggestions for aligning training needs with the strategic areas, highlighting the importance of training in strategic planning, through the individual interests. Lists strategies that represent a competitive advantage in adding value to users. Includes comments on the use of distance learning (EAD) and face-to-face to carry out the training. Treats of the interference of training on productivity and perceptions about the return on investment (ROI). Lists also the SisTEx capabilities with the studies of technological innovation in the service sector. It highlights the training conducted in areas of information security and cyber defense. Considers that it is possible to improve the productivity of labor in terms of capabilities that occur in SisTEx, contributing as a vector of modernity and transformation that act directly in the production process, thus providing an acceleration in the development of quality IT services provided. Offers recommendations for future studies to check the speed of accumulation of technological capabilities, the use of EAD for more complex technical skills and the creation of effective metrics to calculate ROI. To this end, it was made a bibliographical study on the productivity of labor and the process of training of the SisTEx. The method adopted was case study. Inquiries were made (survey) and surveys / polls (poll) that were applied in the heads, former heads of CTA / CT and the students of SisTEx, military who underwent training in the period considered.
82

Modelagem de cenários telemáticos como estratégia cognitiva para trabalhar conceitos físico-químicos : indicadores de aprendizagem

Santos, Solange Capaverde January 2002 (has links)
Neste estudo investigam-se as possibilidades de Cenários Educacionais Informatizados como alternativas estratégicas de uso de produtos da tecnologia informática para o desenvolvimento de processos cognitivos. São propostos indicadores de aprendizagem na forma de Pegadas Cognitivas. Tais Pegadas são o resultado gráfico de uma distribuição espacial de pontos correspondentes aos indicadores de aprendizagem e suas dimensões nos cenários pesquisados. Em cada caso, a “pegada” resulta da ligação entre tais pontos, formando um diagrama onde a disposição dos indicadores, comparando-se as situações ideal e real, permitiu avaliar o desvio em que se encontra a situação real, comparativamente à situação ideal. Sua construção permitiu simbolizar a provisoriedade de cada situação de aprendizagem e inspirar ações para as correções que se fizerem necessárias. Utilizaram-se: software de modelagem computacional – Modellus; espaços virtuais de comunicação – chat, e-mail, listas de discussão, whiteboard, forms, entre outros; Mapas Conceituais/Mentais; imagens e representações; ações ligadas às atividades endógenas permanentes dos aprendizes em função de seu imaginário e dos espaços virtuais e recursos da telemática em atividades de aprendizagem, na área de físico-química, visando ao estudo de como ocorrem as reações químicas. A partir dos resultados obtidos realizou-se o confronto entre as possibilidades reais do ambiente com o imaginado, sobre o tema, por alunos do ensino médio que integram o grupo denominado Grupo Imagem. O caminho que representa a linha mestra deste referencial teórico encontra-se nas Ciências Cognitivas no que se refere às questões relativas às formas de representação, às estratégias cognitivas utilizadas pelo sistema humano de processamento de informação e às aplicações de modelagem computacional em situações de aprendizagem. Considerou-se uma abordagem que leva em conta arquiteturas cognitivas e influências do meio ambiente sobre a capacidade humana de aprender. Aprender no sentido de assimilar novas informações, armazená-las e, ao acessá-las, desenvolver estratégias cognitivas que promovam a evolução das estruturas do conhecimento, numa dinâmica caracterizada pela inovação, pela capacidade humana de estar constantemente em mudança, através de ações situadas, contextualizadas, na Sociedade da Informação, geradora da Sociedade do Conhecimento. Tal sociedade impõe desafios a ser enfrentados com estratégias que permitam a todos, independente de sua situação na escala social, a acessibilidade e a mobilidade informacional e de tecnologias cada vez mais especializadas em todas as áreas, sejam acadêmicas, econômicas ou de bem-estar pessoal que produzam não apenas a mundialização de recursos materiais e físicos, mas que incluam as diferenças de pensamentos e ações que permitem aos seres humanos serem individuais e únicos em sua essência. A Aprendizagem à Distância – AAD – utilizada neste fazer investigatório evidenciou competência para solucionar as dificuldades relativas à flexibilidade dos programas disponíveis para compor cenários educacionais que privilegiem a aprendizagem significativa, em escolas de ensino médio, por exigirem novos posicionamentos e novas habilidades de educandos e de educadores. Entre as habilidades de aprendizagem individual e coletiva que os aprendizes devem possuir ou desenvolver para cooperar com o grupo em AAD, destacam-se: autonomia, responsabilidade, liderança, capacidade para negociação e decisão, capacidade de inferência, dedução, possibilidade de realização de análise e síntese, regras de conduta que permitam a convivência e as trocas de conhecimentos.
83

Modelagem de cenários telemáticos como estratégia cognitiva para trabalhar conceitos físico-químicos : indicadores de aprendizagem

Santos, Solange Capaverde January 2002 (has links)
Neste estudo investigam-se as possibilidades de Cenários Educacionais Informatizados como alternativas estratégicas de uso de produtos da tecnologia informática para o desenvolvimento de processos cognitivos. São propostos indicadores de aprendizagem na forma de Pegadas Cognitivas. Tais Pegadas são o resultado gráfico de uma distribuição espacial de pontos correspondentes aos indicadores de aprendizagem e suas dimensões nos cenários pesquisados. Em cada caso, a “pegada” resulta da ligação entre tais pontos, formando um diagrama onde a disposição dos indicadores, comparando-se as situações ideal e real, permitiu avaliar o desvio em que se encontra a situação real, comparativamente à situação ideal. Sua construção permitiu simbolizar a provisoriedade de cada situação de aprendizagem e inspirar ações para as correções que se fizerem necessárias. Utilizaram-se: software de modelagem computacional – Modellus; espaços virtuais de comunicação – chat, e-mail, listas de discussão, whiteboard, forms, entre outros; Mapas Conceituais/Mentais; imagens e representações; ações ligadas às atividades endógenas permanentes dos aprendizes em função de seu imaginário e dos espaços virtuais e recursos da telemática em atividades de aprendizagem, na área de físico-química, visando ao estudo de como ocorrem as reações químicas. A partir dos resultados obtidos realizou-se o confronto entre as possibilidades reais do ambiente com o imaginado, sobre o tema, por alunos do ensino médio que integram o grupo denominado Grupo Imagem. O caminho que representa a linha mestra deste referencial teórico encontra-se nas Ciências Cognitivas no que se refere às questões relativas às formas de representação, às estratégias cognitivas utilizadas pelo sistema humano de processamento de informação e às aplicações de modelagem computacional em situações de aprendizagem. Considerou-se uma abordagem que leva em conta arquiteturas cognitivas e influências do meio ambiente sobre a capacidade humana de aprender. Aprender no sentido de assimilar novas informações, armazená-las e, ao acessá-las, desenvolver estratégias cognitivas que promovam a evolução das estruturas do conhecimento, numa dinâmica caracterizada pela inovação, pela capacidade humana de estar constantemente em mudança, através de ações situadas, contextualizadas, na Sociedade da Informação, geradora da Sociedade do Conhecimento. Tal sociedade impõe desafios a ser enfrentados com estratégias que permitam a todos, independente de sua situação na escala social, a acessibilidade e a mobilidade informacional e de tecnologias cada vez mais especializadas em todas as áreas, sejam acadêmicas, econômicas ou de bem-estar pessoal que produzam não apenas a mundialização de recursos materiais e físicos, mas que incluam as diferenças de pensamentos e ações que permitem aos seres humanos serem individuais e únicos em sua essência. A Aprendizagem à Distância – AAD – utilizada neste fazer investigatório evidenciou competência para solucionar as dificuldades relativas à flexibilidade dos programas disponíveis para compor cenários educacionais que privilegiem a aprendizagem significativa, em escolas de ensino médio, por exigirem novos posicionamentos e novas habilidades de educandos e de educadores. Entre as habilidades de aprendizagem individual e coletiva que os aprendizes devem possuir ou desenvolver para cooperar com o grupo em AAD, destacam-se: autonomia, responsabilidade, liderança, capacidade para negociação e decisão, capacidade de inferência, dedução, possibilidade de realização de análise e síntese, regras de conduta que permitam a convivência e as trocas de conhecimentos.
84

Controle de admissão de conexão para servidores de vídeo sob demanda utilizando a teoria assintótica de muitas fontes

Stahlschmidt, Thiago 17 August 2010 (has links)
O presente trabalho propõe uma arquitetura de controle de admissão de conexão para servidores de vídeo sob demanda, que visa introduzir garantias determinísticas para o atraso e aumentar a taxa de utilização do enlace. O sistema tira proveito do fato de que os arquivos de vídeo podem ser pré-processados, para calcular os parâmetros de tempo e espaço, com o objetivo de estimar a banda efetiva de um agregado de streams sobre o regime assintótico de muitas fontes. A geração automática dos arquivos de trace permite a caracterização total do processo de chegada dos dados, aumentando a precisão do cálculo da taxa de serviço requerida. Para contornar o problema de predição de tráfego, uma vez que o sistema não captura o comportamento dos fluxos de vídeo no domínio do tempo, o enlace é divido em vários enlaces virtuais, que transportam somente fluxos de vídeos idênticos. A utilização de um mecanismo, que compartilha a banda excedente, diminui o desperdício de recursos e a probabilidade de ocorrer uma violação aos parâmetros de QoS impostos. Todo processo de admissão de conexão é auxiliado por um sistema gestor de base de dados, onde uma função decide se deve ou não aceitar uma conexão pela simples comparação das somas das bandas efetivas das conexões com os recursos disponíveis. A eficiência do modelo proposto é analisada e comparada aos modelos determinísticos tradicionais. / This work proposes a admission control architecture for video-on-demand servers, which provide deterministic guarantees on the maximum delay of video traffic and increase the network resource utilization. The framework take advantage of the fact that stored video streams can be processed off-line to calculate the space and time parameters in order to estimate its effective bandwidth under the many sources asymptotic regime. The automatic generation of video data representation (packetized and encapsulated in network protocols) in textual format allows a full characterization of the underlying process so as to precisely calculate its bandwidth requirements. To bypass the traffic prediction problem, since the off-line estimation does not capture the exact dynamics of the video stream in the time domain, the link is divided into several virtual links, where only streams with same content are multiplexed (group multiplexing approach). The introduction of a borrowing mechanism to distribute the excess bandwidth to other groups which request service increases the resource utilization and QoS. The admission control is aided by a Database Management System, where a stored procedure decides whether to accept or reject a connection by simple compare the sum of effective bandwidths for the traffic streams with the available resources. The efficiency of the model is analyzed and compared with deterministic approachs.
85

Estudio y análisis del impacto y repercusión ambiental sobre el patrimonio histórico edificado en el centro histórico de Villajoyosa durante las fiestas patronales

Lloret, Angel Tomas 14 July 2017 (has links)
A lo largo del levante español existen muchos pueblos que replican escenas de la conquista mora y reconquista cristiana. Particularmente, el pueblo de Villajoyosa celebra lo que se cree que pudo ocurrir el 29 de julio de 1538 en las fiestas patronales en honor a Santa Marta, que se celebra desde el S. XVIII. En esta celebración se representa el desembarco moro, desfiles y batallas que pudieron enfrentar ambos bandos. En 2003 la Secretaría General de Turismo le concedió el título de “Fiestas de interés turístico internacional” a las fiestas de Moros y Cristianos de Villajoyosa. Estos actos se realizan con reproducciones del armamento que se estima que fue utilizado, junto con los mismos explosivos que se utilizaron entonces para realizar disparos. Estos elementos conllevan una peligrosidad añadida para el escenario, pues todos los usuarios y espectadores que la realizan son voluntarios y aficionados a diferencia de aquellos militares destinados y formados para el uso de su defensa en campos de batalla. Concretamente, en dos de los actos que se muestran durante las fiestas patronales, se replica batallas que realmente tuvieron lugar en las murallas de la fortificación hoy existente. En el caso de que se realizara la batalla en este escenario, se trasladaría el acto a una dimensión más cultural del evento. Legalmente, hasta hace escasos meses no ha existido normativa específica que regule los actos. La situación legal actual ha venido precedida en los últimos 17 años por arreglos legislativos que han concedido por tradición excepciones en las leyes de armamento, explosivos, pirotecnia y seguridad ciudadana. No obstante, en la actualidad ya se van a aplicar las nuevas leyes de armamentos y explosivos. Esto ha sido necesario, a la vista está los sucesos ocurridos por ejemplo en 2001 en Villajoyosa, donde ocurrió fatídicamente un accidente con resultado de muerte de un espectador y unos 50 afectados por quemaduras de consecuencias irreversibles. Las reproducciones de las batallas deben hacerse con la gestión adecuada, pudiendo recrearlas con ilusión y buena voluntad, pues aunque ya no sean murallas defensivas, son patrimonio histórico legado, y por tanto la seguridad debe ser la misma, adaptada a las nuevas necesidades. Hemos observado la necesidad de realizar este trabajo en pro de la continuidad del patrimonio histórico edificado e intangible. El estudio de la presente tesis se centra en mostrar el escaso efecto sobre el patrimonio edificado que tiene la réplica de esta batalla en el interior del centro histórico. Se ha observado la marcada prioridad que se está dando en Villajoyosa a un bien cultural tangible inmueble edificado, sobre otro intangible considerado como expresión representativa, poniendo en duda su compatibilidad y coexistencia. Además, se proponen soluciones para defender con nuestras leyes y poner en valor, tanto el patrimonio histórico edificado como el intangible que nos perpetúa con tanto esfuerzo y riesgo, y ayudar a comprender el significado real de estas construcciones defensivas de nuestro pasado, la tradición legada de nuestros antepasados y la seguridad de los actores y visitantes. En primer lugar, teniendo en cuenta la seguridad de las personas, contribuimos con esta investigación a la seguridad en los actos de arcabucería para todos los lugares de celebración similar, pues durante la redacción de la presente tesis, no existía legislación específica que lo regule en esta materia. En segundo lugar, para la protección del patrimonio, debemos ser conscientes que el urbanismo costero ha estado en constante evolución desde un punto de vista turístico. El estado actual de los escenarios y su entorno, los cambios de uso de las viviendas, e incluso las reconstrucciones de éstas, han modificado en Villajoyosa las obligaciones defensivas por necesidades funcionales. Así pues, al planificar o reurbanizar, rara es la vez que han considerado conservar esta actividad, no obstante, aplicando las nuevas tecnologías y conocimientos, podemos evitar que la recreación real de la batalla del S. XVI en el centro urbano histórico de Villajoyosa, se considere un peligro para las personas ni para el patrimonio cultural.
86

Sistema de Gestión y Control de Disponibilidad para el personal militar que labora en la Dirección Gubernamental Peruana

Ortiz Cárdenas, Flindrs, Condori Velásquez, Jessica Milagros 18 October 2019 (has links)
El presente trabajo comprende el desarrollo de un software informático para el área de Telemática de la Dirección Gubernamental Peruana, el cual, permitirá resolver las disconformidades del personal militar por las incorrectas asignaciones de roles de guardia, para ello, se utilizarán algoritmos expertos que permitan automatizar el proceso de asignación de turnos cumpliendo con todos los escenarios, reglas y restricciones del departamento de Telemática. Las asignaciones de turnos deben cumplir un patrón mensual, el cual, debe estar en función a la frecuencia de turnos de guardia según el grado o rango militar, las horas mensuales de guardia por cumplir y los cambios o permisos solicitadas antes o después de asignado el turno, hoy en día, estas asignaciones se realizan de manera manual generando demoras, insatisfacción, quejas y reclamos en la dependencia de Telemática. Para la elaboración del presente trabajo, se tomará como metodología de desarrollo al “Proceso Racional Unificado” o por sus siglas en ingles RUP (Rational Unified Process), y para el modelado del algoritmo experto se tomará como base la metodología Grover e Ideal. En el primer capítulo, se detalla el marco teórico sobre el negocio y las tecnológicas actuales, concluyendo con la organización objetivo que permitirá entender la problemática actual y los procesos relacionados a estos. En el segundo capítulo, se describe la propuesta de solución, resaltando los objetivos generales y específicos del proyecto, así mismo, se identifican los indicadores de logro de los objetivos, se elaborará un análisis comparativo sobre las soluciones actuales y la solución propuesta. En el tercer capítulo, se modelan los procesos de negocio, para ello se hace uso de UML1 como lenguaje unificado de modelado, de esta forma se identificarán los actores y reglas de negocio principales. En el cuarto capítulo, se especifican los requerimientos del sistema y se modelan los casos de usos, así mismo, se describen al detalle todos los casos de uso que el sistema contemplará, pasando a elaborar el modelo conceptual del sistema. El quinto capítulo, corresponde a la arquitectura del software, se describe al detalle las metas, restricciones y mecanismos de la arquitectura utilizada para la construcción del software, además de la elaboración de las vistas lógicas, implementación y despliegue del sistema. En el sexto capítulo, se detalla la construcción del sistema, tomando como prioridad los casos de usos del núcleo central del negocio o mínimo producto viable (MVP2); en él se describen los patrones a utilizar y se definen cuáles son los componentes que el software requiere, confeccionando el modelo de datos del sistema. En el séptimo capítulo, se definen los estándares y políticas de calidad a utilizar, así como la definición de métricas que permitirá medir la calidad del producto final. Finalmente, el octavo capítulo explica la gestión del proyecto, se define la estructura de desglose del trabajo (EDT3) y se elabora el cronograma de ejecución del proyecto tomando como línea base el costo, tiempo y recursos a utilizar. De esta manera, se busca poner fin a la gestión poco eficaz que se tiene respecto a la asignación, control y disponibilidad del personal militar, el cual, genera malestar al personal militar debido a la mala administración y gestión del departamento de asignación de personal de turnos. / The current work includes the development of computer software for the Telematics area of the Peruvian Government Directorate, which will resolve the disagreements of military staff due to incorrect assignments of guard roles, so expert algorithms will be used to automate the process of the assigned work shifts complying with all requirements, rules and restrictions of the Telematics department. Work shift assignments accomplish a monthly pattern which should be based on the frequency of work shifts according to the military grade or rank, the monthly hours of guard to be fulfilled and the changes or work permits requested before or after assigning the work shift. Nowadays these assignments are made manually generating delays, dissatisfaction, complaints and claims in the Telematics department. For the elaboration of this work, the “Rational Unified Process” or for its acronym in English RUP (Rational Unified Process) will be taken as the development methodology and the Grover and Ideal methodology will be taken as a base for the expert algorithm model. In the first chapter the theoretical framework on current business and technologies is detailed, concluding with the objective organization that selected to understand the current problems and the processes related to them. In the second chapter, the solution proposal is described, highlighting the general and specific objectives of the project, as well as the indicators of achievement of the objectives are identified, a comparative analysis of current solutions and the proposed solution is prepared. In the third chapter, business processes are modeled, for this purpose UML4 is used as a unified modeling language, in this way the main business actors and rules are identified. In the fourth chapter the requirements of the system are specified and the use cases are modeled, likewise all the use cases that the system will contemplate are described in detail, finally the conceptual model of the system is elaborated. The fifth chapter, corresponding to the software architecture, describes in detail the goals, restrictions and mechanisms of the architecture used for the construction of the software, in addition to the elaboration of the logical views, implementation and deployment of the system. In the sixth chapter the construction of the system is detailed, taking as a priority the use cases of the central core of the business or minimum viable product (MVP5), it describes the patterns to be used and defines the components to build, finally it will be concluded with the system data model. In the seventh chapter, the quality standards and policies to be used are defined, as well as the definition of metrics that will allow the quality of the final product to be measured. Finally, the eighth chapter explains the management of the project, the Work Breakdown Structure (WBS6) is defined and the project execution schedule is prepared taking as a baseline the cost, time and resources to be used. In this way, the objective is to finish with the inefficient management of the assignment, control and availability that cause discomfort to the military staff due to poor administration or management of the staff shift assignment department. / Tesis
87

Decision Support Elements and Enabling Techniques to Achieve a Cyber Defence Situational Awareness Capability

Llopis Sánchez, Salvador 15 June 2023 (has links)
[ES] La presente tesis doctoral realiza un análisis en detalle de los elementos de decisión necesarios para mejorar la comprensión de la situación en ciberdefensa con especial énfasis en la percepción y comprensión del analista de un centro de operaciones de ciberseguridad (SOC). Se proponen dos arquitecturas diferentes basadas en el análisis forense de flujos de datos (NF3). La primera arquitectura emplea técnicas de Ensemble Machine Learning mientras que la segunda es una variante de Machine Learning de mayor complejidad algorítmica (lambda-NF3) que ofrece un marco de defensa de mayor robustez frente a ataques adversarios. Ambas propuestas buscan automatizar de forma efectiva la detección de malware y su posterior gestión de incidentes mostrando unos resultados satisfactorios en aproximar lo que se ha denominado un SOC de próxima generación y de computación cognitiva (NGC2SOC). La supervisión y monitorización de eventos para la protección de las redes informáticas de una organización debe ir acompañada de técnicas de visualización. En este caso, la tesis aborda la generación de representaciones tridimensionales basadas en métricas orientadas a la misión y procedimientos que usan un sistema experto basado en lógica difusa. Precisamente, el estado del arte muestra serias deficiencias a la hora de implementar soluciones de ciberdefensa que reflejen la relevancia de la misión, los recursos y cometidos de una organización para una decisión mejor informada. El trabajo de investigación proporciona finalmente dos áreas claves para mejorar la toma de decisiones en ciberdefensa: un marco sólido y completo de verificación y validación para evaluar parámetros de soluciones y la elaboración de un conjunto de datos sintéticos que referencian unívocamente las fases de un ciberataque con los estándares Cyber Kill Chain y MITRE ATT & CK. / [CA] La present tesi doctoral realitza una anàlisi detalladament dels elements de decisió necessaris per a millorar la comprensió de la situació en ciberdefensa amb especial èmfasi en la percepció i comprensió de l'analista d'un centre d'operacions de ciberseguretat (SOC). Es proposen dues arquitectures diferents basades en l'anàlisi forense de fluxos de dades (NF3). La primera arquitectura empra tècniques de Ensemble Machine Learning mentre que la segona és una variant de Machine Learning de major complexitat algorítmica (lambda-NF3) que ofereix un marc de defensa de major robustesa enfront d'atacs adversaris. Totes dues propostes busquen automatitzar de manera efectiva la detecció de malware i la seua posterior gestió d'incidents mostrant uns resultats satisfactoris a aproximar el que s'ha denominat un SOC de pròxima generació i de computació cognitiva (NGC2SOC). La supervisió i monitoratge d'esdeveniments per a la protecció de les xarxes informàtiques d'una organització ha d'anar acompanyada de tècniques de visualització. En aquest cas, la tesi aborda la generació de representacions tridimensionals basades en mètriques orientades a la missió i procediments que usen un sistema expert basat en lògica difusa. Precisament, l'estat de l'art mostra serioses deficiències a l'hora d'implementar solucions de ciberdefensa que reflectisquen la rellevància de la missió, els recursos i comeses d'una organització per a una decisió més ben informada. El treball de recerca proporciona finalment dues àrees claus per a millorar la presa de decisions en ciberdefensa: un marc sòlid i complet de verificació i validació per a avaluar paràmetres de solucions i l'elaboració d'un conjunt de dades sintètiques que referencien unívocament les fases d'un ciberatac amb els estàndards Cyber Kill Chain i MITRE ATT & CK. / [EN] This doctoral thesis performs a detailed analysis of the decision elements necessary to improve the cyber defence situation awareness with a special emphasis on the perception and understanding of the analyst of a cybersecurity operations center (SOC). Two different architectures based on the network flow forensics of data streams (NF3) are proposed. The first architecture uses Ensemble Machine Learning techniques while the second is a variant of Machine Learning with greater algorithmic complexity (lambda-NF3) that offers a more robust defense framework against adversarial attacks. Both proposals seek to effectively automate the detection of malware and its subsequent incident management, showing satisfactory results in approximating what has been called a next generation cognitive computing SOC (NGC2SOC). The supervision and monitoring of events for the protection of an organisation's computer networks must be accompanied by visualisation techniques. In this case, the thesis addresses the representation of three-dimensional pictures based on mission oriented metrics and procedures that use an expert system based on fuzzy logic. Precisely, the state-of-the-art evidences serious deficiencies when it comes to implementing cyber defence solutions that consider the relevance of the mission, resources and tasks of an organisation for a better-informed decision. The research work finally provides two key areas to improve decision-making in cyber defence: a solid and complete verification and validation framework to evaluate solution parameters and the development of a synthetic dataset that univocally references the phases of a cyber-attack with the Cyber Kill Chain and MITRE ATT & CK standards. / Llopis Sánchez, S. (2023). Decision Support Elements and Enabling Techniques to Achieve a Cyber Defence Situational Awareness Capability [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/194242
88

Contribución a la mejora de las prestaciones en redes de acceso inalámbricas no convencionales

Agüero Calvo, Ramón 11 March 2008 (has links)
La presencia de topologías multi-salto en comunicaciones inalámbricas de todo tipo es cada vez más apreciable, esperándose además que esta tendencia se mantenga en un futuro cercano. A pesar de que inicialmente fueran concebidos para solventar la falta de infraestructura subyacente en ciertos escenarios concretos, estos despliegues han acaparado el interés de diferentes actores del ámbito de las comunicaciones (incluyendo los operadores), con lo que es razonable pensar que su relevancia irá creciendo paulatinamente. De hecho, existen diversas iniciativas en algunos foros de estandarización que de alguna manera corroboran este hecho. Hay que tener en cuenta, por otro lado, otros factores adicionales (como la eclosión que se ha producido en el campo de las redes de sensores inalámbricos) que seguramente fomentarán el uso de estas topologías.A pesar de la creciente actividad en el ámbito de los despliegues multi-salto, sigue siendo necesario establecer, de manera cuantitativa, cuáles son sus posibles beneficios, tanto para los usuarios finales de los sistemas de comunicación, como para los operadores, especialmente teniendo en cuenta el elevado grado de heterogeneidad que también caracterizará las redes inalámbricas.Por otro lado, en lo que se refiere a los algoritmos y protocolos a ser empleados sobre este tipo de topologías, y a pesar de la intensa labor de investigación que sobre ellos se ha realizado recientemente, queda aún un número relevante de aspectos a analizar. En primer lugar, el mero hecho de que sus requerimientos y retos iniciales hayan variado de manera sustancial puede, y debe, influenciar sus principios básicos. Además, es necesario acometer verificaciones de los mismos sobre plataformas reales y, así mismo, asegurar que las evaluaciones que se realicen con técnicas de simulación utilicen modelos reales que permitan reflejar de manera fidedigna las condiciones que se dan en la realidad.Esta Tesis afronta, en primer lugar, la evaluación cuantitativa de la mejora que es posible alcanzar al utilizar topologías inalámbricas multi-salto para extender despliegues de red más tradicionales. Un primer aspecto que es razonable considerar es la ampliación de la cobertura que se consigue; en este caso se ha realizado un análisis que sigue un doble enfoque, analítico y mediante técnicas de simulación, para determinar es la ganancia que se logra. Se ha partido de dos modelos de red complementarios entre sí, asumiendo en el primero de ellos una falta total de planificación previa, mientras que en el segundo se utiliza un emplazamiento óptimo de los elementos de conexión a la red. Se ha comprobado que, a pesar de sus características claramente antagónicas, los resultados obtenidos con ambos escenarios son similares entre sí. Además, se concluye que, a pesar de que la ampliación de la cobertura que se alcanza es muy relevante, es posible establecer un límite razonable para el número máximo de saltos a emplear, ya que la mejoría adicional al incrementar la longitud de la ruta deja de ser apreciable a partir del mismo. Este aspecto se podría aprovechar para influir en el diseño de las técnicas de encaminamiento a emplear sobre este tipo de topologías.Se analizan también otras mejoras adicionales, utilizando un escenario en el que predomina sobremanera la heterogeneidad de los elementos de conexión a la red, e integrando las extensiones multi-salto con un algoritmo de selección de acceso genérico, que permite modular el peso que tienen las diferentes entidades (tanto el terminal de usuario como la propia red), así como diversos parámetros y restricciones a considerar, a la hora de determinar la alternativa de conexión óptima. Se comprueba que, tanto para los usuarios, gracias a la mejora de la calidad del servicio que perciben, como para la red, que incrementa el tráfico que es capaz de cursar, el uso de comunicaciones multi-salto puede resultar altamente atractivo.En segundo lugar, también se afronta la mejora de las técnicas de encaminamiento que tradicionalmente se emplean sobre las redes multi-salto, basadas en minimizar el número de saltos entre los dos extremos de la comunicación. Para ello, y utilizando el paradigma de Cross-Layer Optimisation, se propone una versión mejorada del protocolo DSR, denominada SADSR, que emplea la información relativa a la calidad de los enlaces subyacentes para modular el algoritmo de selección de ruta. Destacar que se acomete una verificación experimental de dicha propuesta, contestando, de este modo, a una de las reivindicaciones más importantes en este campo. Los resultados obtenidos permiten inferir que las prestaciones de la propuesta realizada en el marco de esta Tesis son superiores a los de la versión original del DSR.A pesar del evidente valor que las validaciones empíricas aportan, tienen la limitación de que es complicado establecer topologías con un número elevado de nodos, o acometer experimentos con una pauta repetitiva para determinar un comportamiento promedio. Es por ello que también se acomete un análisis mediante técnicas de simulación, en el que se compara SADSR con la versión original del DSR, así como con otras propuestas que han acaparado el interés por parte de la comunidad científica. Los resultados que se derivan a raíz de la evaluación llevada a cabo no hacen sino corroborar lo que ya adelanta la verificación experimental, ya que las prestaciones del SADSR son muy superiores a las del resto de alternativas analizadas.Para llevar a cabo el análisis anterior es fundamental el uso de un modelo de canal que refleje, con el mayor grado de exactitud posible, un comportamiento realista. Para ello, en la Tesis se afronta el diseño, implementación y posterior integración en la plataforma Network Simulator de BEAR, un modelo de canal basado en filtrado auto-regresivo, que se caracteriza principalmente por emular la aparición de errores a ráfagas que se observa en entornos reales. En ese sentido, se parte de un extenso conjunto de medidas que permite corroborar el correcto funcionamiento de la propuesta. / The presence of multi-hop topologies within all types of wireless communications is becoming more and more common, and this tendency is expected to be maintained in the near future. Although they were originally conceived to compensate the lack of subjacent infrastructure in certain scenarios, these deployments have attracted the interest of different actors in the wireless communications value chain (including network operators) and thus it is logical to think that their relevance will gradually increase. In fact, there already exist some standardization initiatives which corroborate this point to some extent. Furthermore, other additional factors, such as the rapid growth which has been seen in wireless sensor technologies, also strengthen the use of these topologies..In spite of the growing activity in the multi-hop deployment field, it is still necessary to establish, in a quantitative way, their potential benefits, both for the end-users of the communication systems, as well as for the operators, considering, in addition, the high degree of heterogeneity which will characterize wireless networks in the future.On the other hand, as far as algorithms and protocols to be used over this type of topology are concerned, and despite the intense research which has been conducted into them, there is still a large number of issues to be tackled. First, the simple fact that their initial requirements and challenges have been modified can, and must, influence their basic principles. In addition, it becomes necessary to address their validation on real platforms and, on the other hand, to ensure that simulation-based evaluations of their performance make use of realistic models which accurately reflect the conditions which are observed in real scenarios.This dissertation tackles, on the one hand, the quantitative evaluation of the improvements which are achievable when using multi-hop topologies to extend legacy network deployments. One first aspect which is logical to consider is the increase in the coverage which is brought about. In this sense, a two-fold approach has been followed, employing both an analytical as well as a simulation-based analysis, to establish what the gain is. Two network models have been used, being complementary to each other; the first one assumes a complete lack of network planning for the deployment of the access elements, while the second one assumes an optimum distribution of them. Although their characteristics are completely different, the results are somehow similar for both cases. Furthermore, it can be concluded that, despite the coverage extension which can be obtained, it is indeed possible to establish a reasonable limit on the maximum number of hops to be used, since the improvement becomes less relevant for higher values. This aspect could influence the design of routing techniques to be used over this type of topology.Furthermore, other additional benefits have been also analyzed, using a network deployment in which the presence of heterogeneity (multi-access) is evident. The multi-hop extensions have been integrated within a generic access selection algorithm which enables the modification of the weights which are assigned to the different entities (both the end-user terminals and the network) as well as to the set of parameters and constraints to be considered when selecting the most appropriate access alternative. It is concluded that for both the end-users, who improve their perception of the quality of service, and the network, which is able to increase the overall amount of traffic possible to be handled, multi-hop extensions are certainly beneficial.In addition, the dissertation also tackles the improvement of the routing techniques which are traditionally employed over multi-hop networks, which are based on minimizing the number of hops between the two sides of the communication. To accomplish this, and using the Cross-Layer Optimisation paradigm, an improved version of the DSR protocol is proposed, namely SADSR. It uses information about the subjacent link qualities to modulate the route selection algorithm. It is worth highlighting that a fully empirical (on a real platform) validation has been conducted, addressing one of the most pressing demands within this field. The results obtained allow us to infer that the proposal made in the framework of this dissertation is clearly outperforming the original DSR version.Although the added value provided by empirical validations is unquestionable, they also have some limitations. First, they normally do not favour the establishment of large topologies, or to undertake repetitive experiments aimed at finding an average behaviour. In this sense, a simulation-based analysis is also used so as to compare the SADSR with the original DSR version as well as with other proposals which have recently attracted interest from the scientific community. The results obtained by the validation carried out on a real platform are confirmed, since the performance brought about by the SADSR is somewhat higher than that of the other strategies.In order to perform the previous analysis the use of a realistic channel model, able to capture with a high degree of accuracy the behaviour exhibited on real platforms, is mandatory. To fulfil this requirement, the dissertation also tackles the design, implementation, and integration within the Network Simulator platform of BEAR, a channel model based on auto-regressive filtering. It is mainly characterized by being able to emulate the bursty presence of errors which is observed over real channels. The design is based on an extensive set of measurements which is used to assess the validity of the proposal.
89

Contribución al desarrollo de herramientas estratégicas para el diseño, dimensionado y evaluación de redes de telecomunicación de banda ancha

García Gutiérrez, Alberto Eloy 25 September 2009 (has links)
Internet ha supuesto el despegue de las redes de conmutación de paquetes, las ha convertido en un medio al que todo el mundo quiere acceder, y ha obligado a replantear todas las previsiones que manejaban los operadores sobre el tráfico que iban a soportar sus redes en cada una de sus partes: el acceso, la agregación y la dorsal. Precisamente, la evaluación de estas y otras situaciones deben estar incluidas en el proceso de diseño y planificación de cualquier red, en lo que se ha denominado planificación estratégica. La estimación de la demanda de tráfico resulta especialmente importante porque permite al operador anticiparse a situaciones de congestión y bloqueo de la red. Utiliza herramientas de modelado del tráfico, bien para su cálculo analítico o para su estudio mediante simulación, y al ser una herramienta fundamental, existe un extenso catálogo de modelos de tráfico: genéricos y particularizados, de fuentes individuales y de redes completas, de elementos de interconexión y de enlaces. En esta Tesis, se han analizado los diferentes modelos existentes y se ha desarrollado un nuevo modelo que tiene en cuenta el comportamiento del tráfico desde su preparación por parte de la capa de aplicación, hasta su inserción en la capa física. El modelo propuesto parte de la solución ON-OFF tradicional, aunque aplicado a tres niveles diferentes (conexión, sesión y ráfaga), de forma que cada estado ON se encuentra modulado por el modelo correspondiente a la capa inferior. Como alternativa más simple, surgen los modelos multifuente, que intentan introducir el efecto de la interacción entre las diferentes fuentes, también conocido como agregación. Para considerar este caso, se ha realizado un estudio de modelos específicos para su aplicación a puntos de agregación, especialmente los situados en la red de acceso, al ser ésta la parte de la red que más alto coste presenta en su implementación. Partiendo del modelo ON-OFF para una sola fuente, se ha propuesto una variante multifuente, que aprovecha las propiedades de la función de distribución binomial para realizar el cálculo del tráfico agregado por un número determinado de fuentes. El resultado ha sido comparado mediante la observación de flujos reales, tal como propone la teoría del Network Calculus, y que ha sido evaluada y aplicada en este trabajo con ejemplos prácticos que se han incluido en el documento. El estudio realizado en esta Tesis concluye que el tráfico de fuente está condicionado a tres premisas fundamentales: el usuario, el servicio y la tecnología de acceso, de donde surge un nuevo concepto que especifica de forma sistemática y ordenada todas las variaciones, denominada CASUAL (Cubo de Acceso/Servicios/Usuarios de Asignación Libre) y ha sido aplicada en una herramienta realizada a su efecto, junto con los modelos de tráfico de fuente propuestos. / Internet has been the catalyst of the development of packet switched networks, which have become the resource which everyone wants to access. As a consequence, the operators need to recalculate all their forecasts about the traffic to be transported by their networks. In fact, the evaluation of these and other situations should be included within the design and planning phases of any network, in the so called strategic planning overall process.Traffic demand estimation is particularly interesting, since it allows the operator to anticipate bottlenecks and blocking situations of the network. It uses traffic modelling tools, either for their analytical or simulation-based study. Since they have become an essential tool, there is a wide range of traffic models: generic and particularized, for individual sources and complete networks, for interconnection elements and links.In this thesis, we have analyzed the different models and have developed a new model that takes into account traffic patterns from preparation by the application layer to its insertion into the physical layer. The proposed model is based on the traditional on-off solution, but applied to three different levels (connection, session and burst), so that each ON state is modulated by the model corresponding to the bottom layer. As a simpler alternative, multisource models emerge, seeking to introduce the effect of the interaction between different sources, also known as aggregation. To consider this case, it has made a study of specific models for application to aggregation points, especially those located in the access network, as this is the part of the network that has higher cost in implementation. Based on the ON-OFF model for a single source, is a proposed multi-source variant, which exploits the properties of the binomial distribution function for the calculation of the aggregate traffic for a specified number of sources. The result has been compared by observation of actual flows, as proposed by the theory of Network Calculus, and has been evaluated and implemented in this work with practical examples that are included in the document.The study in this thesis concludes that the traffic source is conditioned on three fundamental premises: the user, service and technology access, where there was a new concept that specifies a systematic and orderly all the variations, called CASUAL (Cube of Access / Services / Users with Free Allocation) and has been implemented in a tool made of its effect, along with the traffic source models proposed.
90

Ajuste de curvas aplicando a escolha de modelos de predição de canais de comunicações por ondas milimétricas. / Adjustment of curves applying the choice of models of prediction of communications channels by millimeter waves.

BEZERRA, Teles de Sales. 07 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-07T18:53:34Z No. of bitstreams: 1 TELES DE SALES BEZERRA - DISSERTAÇÃO PPGCC 2017..pdf: 20064982 bytes, checksum: 40cc1a5d9429d5090373078fb560639d (MD5) / Made available in DSpace on 2018-08-07T18:53:34Z (GMT). No. of bitstreams: 1 TELES DE SALES BEZERRA - DISSERTAÇÃO PPGCC 2017..pdf: 20064982 bytes, checksum: 40cc1a5d9429d5090373078fb560639d (MD5) Previous issue date: 2017-12-21 / Capes / Os Sistemas de Comunicações móveis sem fio estão em uma crescente em relação a demanda por infraestrutura de comunicação, explicado pelo aumento do fornecimento de serviços aos usuários nas últimas décadas. Um dos recursos que está em escassez é o uso da banda, em que diversas técnicas tentam reutilizá-la, na tratativa de aumentar a disponibilidade de uso do espectro. Uma das opções de expansão do espectro, e consequentemente dos atuais serviços de redes móveis é o uso de outras faixas do espectro eletromagnético, que ainda não eram utilizadas nas comunicações móveis, como as ondas milimétricas. As comunicações que operam nas faixas de ondas milimétricas enfrentam obstáculos técnicos, como a necessidade de evolução de equipamentos específicos, problemas de cobertura e o quanto esses aspectos afetam a Qualidade de Serviço (QoS), em resumo, a viabilidade da comunicação requer uma avaliação cuidadosa. Há receio de que comunicações por ondas milimétricas sejam muito menos favoráveis que o uso de espectros mais usuais, principalmente nos problemas relacionados a cobertura. Projetistas de redes contam com diversas ferramentas para prever as características do ambiente, com o intuito de prever dificuldades na cobertura de sinal, para isso, fazem uso de modelos de previsão de perdas. Neste trabalho foi realizado um estudo sobre os problemas de cobertura e propagação de ondas milimétricas em ambientes urbanos fechados, sendo um prédio de escritórios e um shopping center. Para tanto, foram utilizados diversos modelos de previsão de perdas, a partir dos quais foi possível identificar que mesmo com o uso de modelos de perdas recomendados para ondas milimétricas, a minimização dos erros na predição é pequena, e comparada com modelos genéricos. / Wireless Mobile Communications Systems are on the rise in demand for resources, explained by the increased provision of services to users over the past few decades. One of the resources that is in shortage is the use of the band, in which several techniques try to reuse it, in the attempt to increase the availability of use of the spectrum. One of the options for spectrum expansion, and consequently of current mobile network services, is the use of other bands in the electromagnetic spectrum that were not yet used in mobile Communications such as millimeter waves. Communications that operate in the millimeter wave bands face technical obstacles, such as the need to evolve specific equipment, coverage problems and how these aspects affect Quality of Service, in short, the viability of communication requires a careful evaluation. There are fears that millimeter-wave Communications are far less favorable than the use of more usual spectra, especially in coverage-related problems. Network designers rely on several tools to predict the characteristics of the environment, in order to predict difficulties in signal coverage. For this, they use loss prediction models. In this work was carried out a study on the problems of coverage and propagation of millimeter waves in closed urban environments, being an office building and a shopping center. For this, several loss prediction models were used, through which we can identify that even with the use of recommended loss models for millimeter waves, the minimization of prediction errors is small, and compared with generic models.

Page generated in 0.0379 seconds