Spelling suggestions: "subject:"command anda control systems\"" "subject:"command ando control systems\""
431 |
Implementering av IEC61850 i konventionella stationskontrollsystem / Implementation of IEC61850, in a conventional substation control systemGhatta, Harvinder January 2016 (has links)
Examensarbete i Elektronik och datorteknik utfördes på teknikavdelningen vid ABB Substations, Västerås. Syftet med arbetet är att teoretiskt illustrera skillnaden mellan konventionella och numeriska kontrollsystem för substationer. Kontrollsystemen är vitala delar i substationer som styr, övervakar och skyddar anläggningens kopplingsutrustning och skyddar mot skador på egendom och människor. Konventionella kontrollsystem kräver mycket material och konsumerar onödigt på jordens naturresurser. I konventionella kontrollsystem sker allt signalutbyte och kommunikation mellan utrustningar i anläggningarna via kopparkablar. Alla manöversignaler skickas via koppartråd mellan manövertavlor och apparater. Kopparkablar isolerat med olika isolationsmaterial, förläggs i kabalkanaler och kabelstegar. Kontrollutrustning byggs i apparatskåp. Man kan minska miljöpåverkan genom att används IEC61850-teknik och fiberoptiska kablar för kommunikation och signalutbyte. Det reducerar konsumtionen av naturens tillgångar och miljöpåverkan. IEC61850 är ett standardprotokoll för automationsystem i anläggningar och är kompatibelt för produkter mellan de flesta tillverkarna av kontrollutrustning. Numeriska kontrollsystem har enkelt åtkomst till stationsdata och kan upprätta statistik för att analysera och förstå systemet karaktär och därmed underlätta planering av underhåll och uppgradering av systemet. / This bachelor thesis in Electronic and computer engineering is performed at ABB Substations Engineering department. Purpose of the thesis is to illustrate theoretically differences between conventional and numerical control systems for substation. Control system is vital part of substation which control, monitor and protect substations equipment hence protect against damage to property and human beings. Conventional control system consume lots of material and have huge impact on environment and has more risk for fire, toxic gases, and explosions. All operations and signal exchange in conventional control system is through copper cables which are isolated with different isolation materials and to be laid in cable trenches, on cable ladders. It needs metal case cubicles to install and manage different components. Manufacturing and transportation of all material consume resources from nature. The footprints can be reduced dramatically by implementing IEC61850 to conventional control system and using fiber optics cables for communication and signal exchange. This reduces the consumption of natural resources. It can even decrease or eliminate the dependency of particular manufacturer of control equipment or components. IEC61850 is a standard protocol which is compatible with all major control equipment, manufactured by different companies and have high interoperability. Numerical control systems have easy access to data and statistics which help to understand nature of system hence planning maintenance and upgrading of system.
|
432 |
Automated Contingency Management in Unmanned Aircraft SystemsUsach Molina, Héctor 04 November 2019 (has links)
[ES] El ritmo de desarrollo tecnológico actual y la investigación científica están permitiendo alcanzar mayores niveles de automatización en todos los sectores industriales. Uno de los ejemplos más representativos es el uso de aeronaves no tripuladas (UAS) en diferentes aplicaciones. Debido al gran potencial de este tipo de aeronaves, las Autoridades de Aviación Civil están desarrollando un nuevo marco regulatorio que permita integrarlas en el espacio aéreo civil de forma segura. El objetivo consiste en garantizar que la operación con UAS se realice con un nivel de seguridad equivalente al de la aviación tripulada convencional.
Para tratar de alcanzar este objetivo, esta tesis propone aumentar el nivel de automatización de un UAS dotando al sistema embarcado con la capacidad de Gestión Automática de Contingencias (ACM). La función del sistema ACM es la de asesorar al piloto en el momento en que se produce una contingencia en vuelo; y en última instancia, tomar el control total de la aeronave si la situación así' lo requiere (por ejemplo, en caso de pérdida del enlace de Comunicación y Control (C2)) o si el piloto delega la resolución del conflicto al sistema automático. Para acreditar que las nuevas funciones no suponen un riesgo añadido para la operación, resultará determinante seguir metodologías de diseño seguro basadas en los estándares de la industria aeroespacial.
La tesis propone una solución tecnológica basada en tres pilares: a) una arquitectura software para el sistema automático a bordo de la aeronave que trate de adaptar la trayectoria de vuelo a la condición operacional del vehículo, equilibrando seguridad y robustez; b) una especificación de Plan de Misión novedosa que permita aumentar la predictibilidad de la aeronave tras sufrir una contingencia; y c) un modelo de riesgo que permita determinar la ruta que minimiza el riesgo derivado de la operación.
Las diferentes propuestas realizadas en esta tesis se han implementado en un demostrador y se han validado en un entorno de simulación. Los resultados obtenidos apoyan la idea de que dotar al sistema embarcado de mayor grado de automatización puede ser un mecanismo viable hacia la integración segura de UAS en el espacio aéreo civil. En concreto, los resultados muestran que el sistema ACM propuesto es capaz de reducir el riesgo de la operación tras sufrir una contingencia y que, cuando esto ocurre, la respuesta de la aeronave sigue siendo predecible, incluso si el piloto no puede intervenir. / [CA] El ritme de desenvolupament tecnològic actual i la investigació científica estan permetent implementar majors nivells d'automatització a tots els àmbits de la indústria. Un dels exemples més representatius és l'ús d'aeronaus no tripulades (UAS) en diferents aplicacions. Vist el gran potencial d'aquest tipus d'aeronaus, les Autoritats d'Aviació Civil estan tractant de desenvolupar un nou marc regulador que permeta integrar-les en l'espai aeri civil de forma segura. Es tracta de garantir que l'operació d'un UAS es realitza amb un nivell de seguretat equivalent al de l'aviació tripulada convencional.
Per tal d'assolir aquest objectiu, aquesta tesi proposa augmentar el nivell d'automatització d'un UAS dotant el sistema embarcat amb la capacitat de Gestió Automàtica de Contingències (ACM). La funció del sistema ACM és assessorar el pilot quan ocorre una contingència en vol; i en última instància, prendre el control total sobre l'aeronau si és necessari (per exemple, en cas de pèrdua de l'enllaç de Comunicació i Control (C2)) o si el pilot delega la resolució del conflicte al sistema automàtic. Per tal d'acreditar que les noves funcions del sistema automàtic no comporten un risc afegit per a l'operació, resultarà determinant emprar metodologies de disseny segur d'acord amb els estàndards de la indústria aeroespacial.
La tesi proposa una solució tecnològica basada en tres pilars: a) una arquitectura software per al sistema automàtic a bord de l'aeronau que tracte d'adaptar la trajectòria de vol a la condició operacional del vehicle, equilibrant seguretat i robustesa; b) una especificació de Pla de Missió innovadora que permeta augmentar la predictibilitat de l'aeronau quan ocorre una contingència; i c) un model de risc que permeta determinar la ruta que minimitza el risc derivat de l'operació.
Les distintes propostes realitzades en aquesta tesi s'han implementat sobre un demostrador i s'han validat en un entorn de simulació. Els resultats de la investigació recolzen la idea que dotar el sistema embarcat d'un major grau d'automatització pot ser un mecanisme adient per integrar els UAS en l'espai aeri civil de manera segura. En concret, els resultats indiquen que el sistema ACM és capaç de reduir el risc de l'operació quan ocorre una contingència i que en eixe cas, la resposta de l'aeronau segueix sent predicible, fins i tot si el pilot no hi pot intervenir. / [EN] Technological development and scientific research are steadily enabling higher levels of automation in the global industry. In the aerospace sector, the operation of Unmanned Aircraft System (UAS) is a clear example. Given the huge potential of the UAS market, Civil Aviation Authorities are elaborating a new regulatory framework for the safe integration of UAS into the civil airspace. The general goal is ensuring that the operation of UAS has an Equivalent Level of Safety (ELOS) to that of manned aviation.
To meet the previous goal, this thesis advocates for increasing the level of automation of UAS operations by providing the automatic system on-board the aircraft with Automated Contingency Management (ACM) functions. ACM functions are designed to assist the pilot-in-command in case a contingency, and ultimately to fully replace the pilot if this is required by the situation (e.g. due to a Command and Control (C2) link loss) or if the pilot decides so. However, in order for automation to be safe, automated functions must be developed following safe design methodologies based on aerospace standards.
The thesis develops a technological solution that is based on three pillars: a) a software architecture for the automatic system on-board the aircraft that tries to autonomously adapt to contingencies while still achieving mission objectives; b) a novel Mission Plan specification than increases predictability in the event of a contingency; and c) a probabilistic risk model that ensures that the flight trajectory is optimal from the point of view of the risk exposure.
The different proposals are prototyped and validated using a simulation environment. The results obtained support the idea that an increase in the automation level of the aircraft can be an effective means towards the safe integration of UAS into the civil airspace. The proposed ACM functions are proved to reduce the operational risk in the event of a contingency, while ensure that the aircraft remains predictable, even without pilot intervention. / En primer lloc, vull fer constar que aquesta tesi ha estat co-financiada pel Fons
Social Europeu 2014-2020 i pel programa VALI+d de la Generalitat Valenciana
(expedient número ACIF/2016/197). / Usach Molina, H. (2019). Automated Contingency Management in Unmanned Aircraft Systems [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/130202
|
433 |
Heat and fluid control solutions for deep space CubeSat CGPSByström-Troyan, Filipp January 2021 (has links)
This thesis is on the subject of how propellant heating considerations affect the design of a CubeSat cold gas propulsion system. Computer simulation tools are used to analyse heat flow through the system, as well as the fluid flow and phase change of butane. The heating performance is presented for different operational states and different designs. Finally, an optimal system design is suggested. The propulsion system in question is the deep space heading Hera Juventas 6DOF CGPS. The Juventas spacecraft will as part of ESA’s Hera mission be the first to perform radar measurements of an asteroid. It will determine the result of the NASA DART mission and will give insights to the internal structure of the Dimorphos minor- planet moon. / Detta examensarbete behandlar utformningen av ett CubeSat kallgasframdrivningssystem med avseende på drivmedelsuppvärmning. Datorsimuleringsverktyg används för att analysera värmeflöde genom systemet samt flödet och fasförändringen av butan. Värmningsprestanda presenteras för olika driftstillstånd och olika konstruktioner. Slutligen föreslås en optimal systemdesign. Framdrivningssystemet i fråga är Hera Juventas 6DOF CGPS. Rymdfarkosten Juventas kommer som en del av ESA:s Herauppdrag att vara den första som utför radarmätningar av en asteroid. Den kommer att avgöra resultatet av NASA:s DARTuppdrag och kommer att ge insikter om den interna strukturen i asteroidmånen Dimorphos.
|
434 |
PC-BASED TELEMETRY AND COMMAND FRONT-END FOR A DISTRIBUTED SATELLITE CONTROL SYSTEMOrsino, Mary Ellen, Williams, Michael 10 1900 (has links)
International Telemetering Conference Proceedings / October 28-31, 1996 / Town and Country Hotel and Convention Center, San Diego, California / Satellite Control Systems require a front-end component which performs real-time
telemetry acquisition and command output. This paper will describe a fully networked,
PC-based telemetry and command front-end which supports multiple streams and is based
on Commercial Off The Shelf (COTS) technology.
The front-end system is a gateway that accepts multiple telemetry streams and outputs
time-tagged frame or packet data over a network to workstations in a distributed satellite
control and analysis system. The system also includes a command gateway that accepts
input from a command processor and outputs serial commands to the uplink. The front-end
can be controlled locally or remotely via the network using Simple Network
Management Protocol. Key elements of the front-end system are the Avtec
MONARCH-E™ PCI-based CCSDS/TDM Telemetry Processor/Simulator board, a
network-based, distributed computing architecture, and the Windows NT operating
system.
The PC-based telemetry and command gateway is useful throughout the lifecycle of a
satellite system. During development, integration, and test, the front-end system can be
used as a test tool in a distributed test environment. During operations, the system is
installed at remote ground stations, with network links back to operations center(s) for
telemetry and command processing and analysis.
|
435 |
Dependability-driven Strategies to Improve the Design and Verification of Safety-Critical HDL-based Embedded SystemsTuzov, Ilya 25 January 2021 (has links)
[ES] La utilización de sistemas empotrados en cada vez más ámbitos de aplicación está llevando a que su diseño deba enfrentarse a mayores requisitos de rendimiento, consumo de energía y área (PPA). Asimismo, su utilización en aplicaciones críticas provoca que deban cumplir con estrictos requisitos de confiabilidad para garantizar su correcto funcionamiento durante períodos prolongados de tiempo. En particular, el uso de dispositivos lógicos programables de tipo FPGA es un gran desafío desde la perspectiva de la confiabilidad, ya que estos dispositivos son muy sensibles a la radiación. Por todo ello, la confiabilidad debe considerarse como uno de los criterios principales para la toma de decisiones a lo largo del todo flujo de diseño, que debe complementarse con diversos procesos que permitan alcanzar estrictos requisitos de confiabilidad.
Primero, la evaluación de la robustez del diseño permite identificar sus puntos débiles, guiando así la definición de mecanismos de tolerancia a fallos. Segundo, la eficacia de los mecanismos definidos debe validarse experimentalmente. Tercero, la evaluación comparativa de la confiabilidad permite a los diseñadores seleccionar los componentes prediseñados (IP), las tecnologías de implementación y las herramientas de diseño (EDA) más adecuadas desde la perspectiva de la confiabilidad. Por último, la exploración del espacio de diseño (DSE) permite configurar de manera óptima los componentes y las herramientas seleccionados, mejorando así la confiabilidad y las métricas PPA de la implementación resultante.
Todos los procesos anteriormente mencionados se basan en técnicas de inyección de fallos para evaluar la robustez del sistema diseñado. A pesar de que existe una amplia variedad de técnicas de inyección de fallos, varias problemas aún deben abordarse para cubrir las necesidades planteadas en el flujo de diseño. Aquellas soluciones basadas en simulación (SBFI) deben adaptarse a los modelos de nivel de implementación, teniendo en cuenta la arquitectura de los diversos componentes de la tecnología utilizada. Las técnicas de inyección de fallos basadas en FPGAs (FFI) deben abordar problemas relacionados con la granularidad del análisis para poder localizar los puntos débiles del diseño.
Otro desafío es la reducción del coste temporal de los experimentos de inyección de fallos. Debido a la alta complejidad de los diseños actuales, el tiempo experimental dedicado a la evaluación de la confiabilidad puede ser excesivo incluso en aquellos escenarios más simples, mientras que puede ser inviable en aquellos procesos relacionados con la evaluación de múltiples configuraciones alternativas del diseño.
Por último, estos procesos orientados a la confiabilidad carecen de un soporte instrumental que permita cubrir el flujo de diseño con toda su variedad de lenguajes de descripción de hardware, tecnologías de implementación y herramientas de diseño.
Esta tesis aborda los retos anteriormente mencionados con el fin de integrar, de manera eficaz, estos procesos orientados a la confiabilidad en el flujo de diseño. Primeramente, se proponen nuevos métodos de inyección de fallos que permiten una evaluación de la confiabilidad, precisa y detallada, en diferentes niveles del flujo de diseño. Segundo, se definen nuevas técnicas para la aceleración de los experimentos de inyección que mejoran su coste temporal. Tercero, se define dos estrategias DSE que permiten configurar de manera óptima (desde la perspectiva de la confiabilidad) los componentes IP y las herramientas EDA, con un coste experimental mínimo. Cuarto, se propone un kit de herramientas que automatiza e incorpora con eficacia los procesos orientados a la confiabilidad en el flujo de diseño semicustom. Finalmente, se demuestra la utilidad y eficacia de las propuestas mediante un caso de estudio en el que se implementan tres procesadores empotrados en un FPGA de Xilinx serie 7. / [CA] La utilització de sistemes encastats en cada vegada més àmbits d'aplicació està portant al fet que el seu disseny haja d'enfrontar-se a majors requisits de rendiment, consum d'energia i àrea (PPA). Així mateix, la seua utilització en aplicacions crítiques provoca que hagen de complir amb estrictes requisits de confiabilitat per a garantir el seu correcte funcionament durant períodes prolongats de temps. En particular, l'ús de dispositius lògics programables de tipus FPGA és un gran desafiament des de la perspectiva de la confiabilitat, ja que aquests dispositius són molt sensibles a la radiació. Per tot això, la confiabilitat ha de considerar-se com un dels criteris principals per a la presa de decisions al llarg del tot flux de disseny, que ha de complementar-se amb diversos processos que permeten aconseguir estrictes requisits de confiabilitat.
Primer, l'avaluació de la robustesa del disseny permet identificar els seus punts febles, guiant així la definició de mecanismes de tolerància a fallades. Segon, l'eficàcia dels mecanismes definits ha de validar-se experimentalment. Tercer, l'avaluació comparativa de la confiabilitat permet als dissenyadors seleccionar els components predissenyats (IP), les tecnologies d'implementació i les eines de disseny (EDA) més adequades des de la perspectiva de la confiabilitat. Finalment, l'exploració de l'espai de disseny (DSE) permet configurar de manera òptima els components i les eines seleccionats, millorant així la confiabilitat i les mètriques PPA de la implementació resultant.
Tots els processos anteriorment esmentats es basen en tècniques d'injecció de fallades per a poder avaluar la robustesa del sistema dissenyat. A pesar que existeix una àmplia varietat de tècniques d'injecció de fallades, diverses problemes encara han d'abordar-se per a cobrir les necessitats plantejades en el flux de disseny. Aquelles solucions basades en simulació (SBFI) han d'adaptar-se als models de nivell d'implementació, tenint en compte l'arquitectura dels diversos components de la tecnologia utilitzada. Les tècniques d'injecció de fallades basades en FPGAs (FFI) han d'abordar problemes relacionats amb la granularitat de l'anàlisi per a poder localitzar els punts febles del disseny.
Un altre desafiament és la reducció del cost temporal dels experiments d'injecció de fallades. A causa de l'alta complexitat dels dissenys actuals, el temps experimental dedicat a l'avaluació de la confiabilitat pot ser excessiu fins i tot en aquells escenaris més simples, mentre que pot ser inviable en aquells processos relacionats amb l'avaluació de múltiples configuracions alternatives del disseny.
Finalment, aquests processos orientats a la confiabilitat manquen d'un suport instrumental que permeta cobrir el flux de disseny amb tota la seua varietat de llenguatges de descripció de maquinari, tecnologies d'implementació i eines de disseny.
Aquesta tesi aborda els reptes anteriorment esmentats amb la finalitat d'integrar, de manera eficaç, aquests processos orientats a la confiabilitat en el flux de disseny. Primerament, es proposen nous mètodes d'injecció de fallades que permeten una avaluació de la confiabilitat, precisa i detallada, en diferents nivells del flux de disseny. Segon, es defineixen noves tècniques per a l'acceleració dels experiments d'injecció que milloren el seu cost temporal. Tercer, es defineix dues estratègies DSE que permeten configurar de manera òptima (des de la perspectiva de la confiabilitat) els components IP i les eines EDA, amb un cost experimental mínim. Quart, es proposa un kit d'eines (DAVOS) que automatitza i incorpora amb eficàcia els processos orientats a la confiabilitat en el flux de disseny semicustom. Finalment, es demostra la utilitat i eficàcia de les propostes mitjançant un cas d'estudi en el qual s'implementen tres processadors encastats en un FPGA de Xilinx serie 7. / [EN] Embedded systems are steadily extending their application areas, dealing with increasing requirements in performance, power consumption, and area (PPA). Whenever embedded systems are used in safety-critical applications, they must also meet rigorous dependability requirements to guarantee their correct operation during an extended period of time. Meeting these requirements is especially challenging for those systems that are based on Field Programmable Gate Arrays (FPGAs), since they are very susceptible to Single Event Upsets. This leads to increased dependability threats, especially in harsh environments. In such a way, dependability should be considered as one of the primary criteria for decision making throughout the whole design flow, which should be complemented by several dependability-driven processes.
First, dependability assessment quantifies the robustness of hardware designs against faults and identifies their weak points. Second, dependability-driven verification ensures the correctness and efficiency of fault mitigation mechanisms. Third, dependability benchmarking allows designers to select (from a dependability perspective) the most suitable IP cores, implementation technologies, and electronic design automation (EDA) tools. Finally, dependability-aware design space exploration (DSE) allows to optimally configure the selected IP cores and EDA tools to improve as much as possible the dependability and PPA features of resulting implementations.
The aforementioned processes rely on fault injection testing to quantify the robustness of the designed systems. Despite nowadays there exists a wide variety of fault injection solutions, several important problems still should be addressed to better cover the needs of a dependability-driven design flow. In particular, simulation-based fault injection (SBFI) should be adapted to implementation-level HDL models to take into account the architecture of diverse logic primitives, while keeping the injection procedures generic and low-intrusive. Likewise, the granularity of FPGA-based fault injection (FFI) should be refined to the enable accurate identification of weak points in FPGA-based designs.
Another important challenge, that dependability-driven processes face in practice, is the reduction of SBFI and FFI experimental effort. The high complexity of modern designs raises the experimental effort beyond the available time budgets, even in simple dependability assessment scenarios, and it becomes prohibitive in presence of alternative design configurations.
Finally, dependability-driven processes lack an instrumental support covering the semicustom design flow in all its variety of description languages, implementation technologies, and EDA tools. Existing fault injection tools only partially cover the individual stages of the design flow, being usually specific to a particular design representation level and implementation technology.
This work addresses the aforementioned challenges by efficiently integrating dependability-driven processes into the design flow. First, it proposes new SBFI and FFI approaches that enable an accurate and detailed dependability assessment at different levels of the design flow. Second, it improves the performance of dependability-driven processes by defining new techniques for accelerating SBFI and FFI experiments. Third, it defines two DSE strategies that enable the optimal dependability-aware tuning of IP cores and EDA tools, while reducing as much as possible the robustness evaluation effort. Fourth, it proposes a new toolkit (DAVOS) that automates and seamlessly integrates the aforementioned dependability-driven processes into the semicustom design flow. Finally, it illustrates the usefulness and efficiency of these proposals through a case study consisting of three soft-core embedded processors implemented on a Xilinx 7-series SoC FPGA. / Tuzov, I. (2020). Dependability-driven Strategies to Improve the Design and Verification of Safety-Critical HDL-based Embedded Systems [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/159883
|
436 |
AI-Enhanced Methods in Autonomous Systems: Large Language Models, DL Techniques, and Optimization Algorithmsde Zarzà i Cubero, Irene 23 January 2024 (has links)
Tesis por compendio / [ES] La proliferación de sistemas autónomos y su creciente integración en la vida humana cotidiana han abierto nuevas fronteras de investigación y desarrollo. Dentro de este ámbito, la presente tesis se adentra en las aplicaciones multifacéticas de los LLMs (Large Language Models), técnicas de DL (Deep Learning) y algoritmos de optimización en el ámbito de estos sistemas autónomos. A partir de los principios de los métodos potenciados por la Inteligencia Artificial (IA), los estudios englobados en este trabajo convergen en la exploración y mejora de distintos sistemas autónomos que van desde sistemas de platooning de camiones en sistemas de comunicaciones Beyond 5G (B5G), Sistemas Multi-Agente (SMA), Vehículos Aéreos No Tripulados (UAV), estimación del área de incendios forestales, hasta la detección temprana de enfermedades como el glaucoma.
Un enfoque de investigación clave, perseguido en este trabajo, gira en torno a la implementación innovadora de controladores PID adaptativos en el platooning de vehículos, facilitada a través de la integración de los LLMs. Estos controladores PID, cuando se infunden con capacidades de IA, ofrecen nuevas posibilidades en términos de eficiencia, fiabilidad y seguridad de los sistemas de platooning. Desarrollamos un modelo de DL que emula un controlador PID adaptativo, mostrando así su potencial en las redes y radios habilitadas para IA. Simultáneamente, nuestra exploración se extiende a los sistemas multi-agente, proponiendo una Teoría Coevolutiva Extendida (TCE) que amalgama elementos de la dinámica coevolutiva, el aprendizaje adaptativo y las recomendaciones de estrategias basadas en LLMs. Esto permite una comprensión más matizada y dinámica de las interacciones estratégicas entre agentes heterogéneos en los SMA.
Además, nos adentramos en el ámbito de los vehículos aéreos no tripulados (UAVs), proponiendo un sistema para la comprensión de vídeos que crea una log de la historia basada en la descripción semántica de eventos y objetos presentes en una escena capturada por un UAV. El uso de los LLMs aquí permite razonamientos complejos como la predicción de eventos con mínima intervención humana. Además, se aplica una metodología alternativa de DL para la estimación del área afectada durante los incendios forestales. Este enfoque aprovecha una nueva arquitectura llamada TabNet, integrada con Transformers, proporcionando así una estimación precisa y eficiente del área.
En el campo de la salud, nuestra investigación esboza una metodología exitosa de detección temprana del glaucoma. Utilizando un enfoque de entrenamiento de tres etapas con EfficientNet en imágenes de retina, logramos una alta precisión en la detección de los primeros signos de esta enfermedad.
A través de estas diversas aplicaciones, el foco central sigue siendo la exploración de metodologías avanzadas de IA dentro de los sistemas autónomos. Los estudios dentro de esta tesis buscan demostrar el poder y el potencial de las técnicas potenciadas por la IA para abordar problemas complejos dentro de estos sistemas. Estas investigaciones en profundidad, análisis experimentales y soluciones desarrolladas arrojan luz sobre el potencial transformador de las metodologías de IA en la mejora de la eficiencia, fiabilidad y seguridad de los sistemas autónomos, contribuyendo en última instancia a la futura investigación y desarrollo en este amplio campo. / [CA] La proliferació de sistemes autònoms i la seua creixent integració en la vida humana quotidiana han obert noves fronteres de recerca i desenvolupament. Dins d'aquest àmbit, la present tesi s'endinsa en les aplicacions multifacètiques dels LLMs (Large Language Models), tècniques de DL (Deep Learning) i algoritmes d'optimització en l'àmbit d'aquests sistemes autònoms. A partir dels principis dels mètodes potenciats per la Intel·ligència Artificial (IA), els estudis englobats en aquest treball convergeixen en l'exploració i millora de diferents sistemes autònoms que van des de sistemes de platooning de camions en sistemes de comunicacions Beyond 5G (B5G), Sistemes Multi-Agent (SMA), Vehicles Aeris No Tripulats (UAV), estimació de l'àrea d'incendis forestals, fins a la detecció precoç de malalties com el glaucoma.
Un enfocament de recerca clau, perseguit en aquest treball, gira entorn de la implementació innovadora de controladors PID adaptatius en el platooning de vehicles, facilitada a través de la integració dels LLMs. Aquests controladors PID, quan s'infonen amb capacitats d'IA, ofereixen noves possibilitats en termes d'eficiència, fiabilitat i seguretat dels sistemes de platooning. Desenvolupem un model de DL que emula un controlador PID adaptatiu, mostrant així el seu potencial en les xarxes i ràdios habilitades per a IA. Simultàniament, la nostra exploració s'estén als sistemes multi-agent, proposant una Teoria Coevolutiva Estesa (TCE) que amalgama elements de la dinàmica coevolutiva, l'aprenentatge adaptatiu i les recomanacions d'estratègies basades en LLMs. Això permet una comprensió més matissada i dinàmica de les interaccions estratègiques entre agents heterogenis en els SMA.
A més, ens endinsem en l'àmbit dels Vehicles Aeris No Tripulats (UAVs), proposant un sistema per a la comprensió de vídeos que crea un registre de la història basat en la descripció semàntica d'esdeveniments i objectes presents en una escena capturada per un UAV. L'ús dels LLMs aquí permet raonaments complexos com la predicció d'esdeveniments amb mínima intervenció humana. A més, s'aplica una metodologia alternativa de DL per a l'estimació de l'àrea afectada durant els incendis forestals. Aquest enfocament aprofita una nova arquitectura anomenada TabNet, integrada amb Transformers, proporcionant així una estimació precisa i eficient de l'àrea.
En el camp de la salut, la nostra recerca esbossa una metodologia exitosa de detecció precoç del glaucoma. Utilitzant un enfocament d'entrenament de tres etapes amb EfficientNet en imatges de retina, aconseguim una alta precisió en la detecció dels primers signes d'aquesta malaltia.
A través d'aquestes diverses aplicacions, el focus central continua sent l'exploració de metodologies avançades d'IA dins dels sistemes autònoms. Els estudis dins d'aquesta tesi busquen demostrar el poder i el potencial de les tècniques potenciades per la IA per a abordar problemes complexos dins d'aquests sistemes. Aquestes investigacions en profunditat, anàlisis experimentals i solucions desenvolupades llançen llum sobre el potencial transformador de les metodologies d'IA en la millora de l'eficiència, fiabilitat i seguretat dels sistemes autònoms, contribuint en última instància a la futura recerca i desenvolupament en aquest ampli camp. / [EN] The proliferation of autonomous systems, and their increasing integration with day-to-day human life, have opened new frontiers of research and development. Within this scope, the current thesis dives into the multifaceted applications of Large Language Models (LLMs), Deep Learning (DL) techniques, and Optimization Algorithms within the realm of these autonomous systems. Drawing from the principles of AI-enhanced methods, the studies encapsulated within this work converge on the exploration and enhancement of different autonomous systems ranging from B5G Truck Platooning Systems, Multi-Agent Systems (MASs), Unmanned Aerial Vehicles, Forest Fire Area Estimation, to the early detection of diseases like Glaucoma.
A key research focus, pursued in this work, revolves around the innovative deployment of adaptive PID controllers in vehicle platooning, facilitated through the integration of LLMs. These PID controllers, when infused with AI capabilities, offer new possibilities in terms of efficiency, reliability, and security of platooning systems. We developed a DL model that emulates an adaptive PID controller, thereby showcasing its potential in AI-enabled radio and networks. Simultaneously, our exploration extends to multi-agent systems, proposing an Extended Coevolutionary (EC) Theory that amalgamates elements of coevolutionary dynamics, adaptive learning, and LLM-based strategy recommendations. This allows for a more nuanced and dynamic understanding of the strategic interactions among heterogeneous agents in MASs.
Moreover, we delve into the realm of Unmanned Aerial Vehicles (UAVs), proposing a system for video understanding that employs a language-based world-state history of events and objects present in a scene captured by a UAV. The use of LLMs here enables open-ended reasoning such as event forecasting with minimal human intervention. Furthermore, an alternative DL methodology is applied for the estimation of the affected area during forest fires. This approach leverages a novel architecture called TabNet, integrated with Transformers, thus providing accurate and efficient area estimation.
In the field of healthcare, our research outlines a successful early detection methodology for glaucoma. Using a three-stage training approach with EfficientNet on retinal images, we achieved high accuracy in detecting early signs of this disease.
Across these diverse applications, the core focus remains: the exploration of advanced AI methodologies within autonomous systems. The studies within this thesis seek to demonstrate the power and potential of AI-enhanced techniques in tackling complex problems within these systems. These in-depth investigations, experimental analyses, and developed solutions shed light on the transformative potential of AI methodologies in improving the efficiency, reliability, and security of autonomous systems, ultimately contributing to future research and development in this expansive field. / De Zarzà I Cubero, I. (2023). AI-Enhanced Methods in Autonomous Systems: Large Language Models, DL Techniques, and Optimization Algorithms [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/202201 / Compendio
|
437 |
Requirements of the Navy's Tomahawk Theater Mission Planning system relating to object-oriented technologyBozarth, John D. 30 March 2010 (has links)
It was discovered during the Gulf war that the current time required to plan a Tomahawk Land Attack Missile (TLAM) mission was too long and that the current mission planning system design was limited in its capabilities.
The possibility of incorporating object-oriented technology into the TLAM Planning System (TPS) was invest i gated ; n order to reduce the time required to plan a particular mission and to increase the capabilities of mission planning.
The current time to plan a Tomahawk mission is approximately over three hours. Ut i 1 i zing Object-Oriented Technology (DOT) within the TPS will reduce this time significantly. DOT also allows for the use of complex data transactions and data types such as voice, video, graphics, image and text. Utilizing complex data types in mission planning will increase mission capabilities and performance. / Master of Science
|
438 |
Morphology Control of Copolymer Thin Films by NanoparticlesShagolsem, Lenin Singh 04 March 2014 (has links) (PDF)
Diblock-Copolymers (DBCs), created by covalently joining two chemically distinct polymer blocks, spontaneously form various nanoscale morphologies such as lamellae, cylinders, spheres, etc. due to the chemical incompatibility of its constituent blocks. This effect is called microphase separation in the literature. Because of this self-organizing property DBCs find applications in many areas e.g. in creating selective membranes, and in polymer based modern electronic devices like organic photovoltaics where the internal morphology plays an important role in determining the performance of the device. Many such modern devices are based on thin film technologies and uses copolymer nanocomposites as it exhibits advantageous electrical, optical, and mechanical properties. Also, DBC can direct the spatial distribution of nanoparticles (NPs) in the polymer matrix via microphase separation. Generally, two types of NPs are distinguished with respect to their monomer affinity: selective NPs which prefer one component of DBC, and non-selective NPs which interact equally with both components of DBC. In this work, using molecular dynamics simulations and analytical calculations, we explore the effect of adding both types of NP in the copolymer matrix considering a thin film (or confined) geometry.
We consider a cylinder forming DBC melt confined by purely repulsive walls in slit geometry and study the behavior of the system upon adding non-selective NPs. Two models of non-selective interactions between the monomers and NPs are applied, i.e repulsive and weakly attractive interactions (athermal and thermal cases respectively). Spatial distribution of NPs in the copolymer matrix is sensitive to the NP-monomer interaction behavior. We focus on the thermal case and discuss, in particular, the following points: (1) role of diblock and polymer-wall interfaces, (2) spatial distribution of NPs, and (3) NP segregation and uptake behavior by the copolymer film. The uptake of NPs by the copolymer film in the thermal case displays a non-monotonic dependence on temperature which can be explained qualitatively using a mean-field model. In general, addition of non-selective NPs do not affect the copolymer morphology and the NPs are preferentially localized at the interface between microphase domains.
Morphological transitions are observed when adding selective NPs to the copolymer matrix. By varying the amount of selective NPs and diblock composition we systematically explore the various structures formed by the nanocomposites under confinement and constructed the corresponding phase diagram in diblock composition and NP concentration. We also discuss the NP induced orientation transition of lamellar structure and study the stability of lamellar phases formed by the nanocomposites.
To study the commensurability and wetting transition of horizontally oriented lamellar phase formed by the nanocomposites we have developed a mean field model based on the strong segregation theory. Our model predicts that it is possible to reduce the frustration in a film of fixed thickness by properly tuning the NP-monomer interaction strength. Furthermore, the model predicts a discontinuous transition between the non-wetted phase (where a dense NP layer is present in the polymer-substrate interface) and wetted phase (where the substrate is covered by polymers).
Finally, we extend our study to non-equilibrium where we apply a shear flow field to copolymer thin films. Here, we study the flow behavior, lamellae deformation and change of pair-wise interaction energy, and macroscopic response like kinetic friction coefficient and viscosity of the copolymer thin film with and without NPs. / Lösungen von Diblock-Copolymeren (DBC), welche durch die kovalente Bindung zweier chemisch unterschiedlicher linearer Polymerblöcke entstehen, können spontan mikroskopische Strukturen ausbilden, welche je nach dem Grad der chemischen Kompatibiliät der Blöcke beispielsweise lamellen-, zylinder- oder kugelartige Formen zeigen. Dieses Phänomen wird meist als Mikrophasenseparation bezeichnet. Aufgrund dieser selbstorganisierenden Eigenschaft finden DBCs Anwendungen in vielen Bereichen der Forschung und der Industrie. Beispielsweise zur Erzeugung selektiver Membranen oder in moderner polymerbasierter Elektronik, wie organischen Solarzellen, wo die innere Struktur eine wichtige Rolle spielt um die Leistungsfähigkeit zu erhöhen. Viele moderne Geräte basieren auf der Technologie dünner Schichten und nutzen Copolymer-Nanokomposite um elektrische, optische oder mechanische Eigenschaften zu verbessern.
In Folge der Mikrophasenseparation kann man mit Hilfe von DBC die räumliche Verteilung von Nanopartikeln (NP) in der Polymermatrix kontrollieren. Man unterscheidet im Allgemeinen zwischen zwei Arten von NP: selektive NP, welche eine der beiden Komponenten der DBC bevorzugen und nicht-selektive NP, welche mit beiden Komponenten gleichartig wechselwirken. In der vorliegenden Arbeit nutzen wir molekulardynamische Simulationen und analytische Rechnungen um den Eigenschaften zu studieren, welche eine Zugabe von selektiven und nicht-selektiven NP auf eine dünnschichtige Copolymermatrix hat.
Wir betrachten eine zylinderformende Schmelze aus DBC, welche in einem dünnen Film, zwischen zwei harten Wänden eingeschränkt ist, und untersuchen das Verhalten des Systems unter Zugabe nicht-selektiver NP. Zwei Modelle nicht-selektiver Wechselwirkungen werden angenommen: ausschließlich repulsive (athermische) Wechselwirkungen und schwach anziehende (thermische) Wechselwirkungen. Die räumliche Verteilung der NP ist abhängig von dem jeweiligen Wechselwirkungsverhalten. Wir konzentrieren uns hierbei auf den thermischen Fall und diskutieren speziell folgende Schwerpunkte: (1.) die Rolle der sich ausbildenden Grenzschichten, (2.) die räumliche Verteilung der NP und (3.) die Abscheidung der NP, sowie die Aufnahmefähigkeit derselben durch die Polymermatrix. Im thermische Fall zeigt die Aufnahme der NP durch die Copolymerschicht eine nicht-monotone Abhängigkeit von der Temperatur, was mit Hilfe eines Mean-Field Modells erklärt werden kann. Die Zugabe nicht-selektiver NP hat keinen Einfluss auf die Struktur der Copolymermatrix und die NP werden vorzugsweise an der Grenzschicht der jeweiligen Mikrophasen gefunden.
Im Gegensatz dazu kann man durch die Zugabe selektiver NP eine Strukturveränderung in der Copolymermatrix feststellen. Durch Veränderung der Menge der NP und der Zusammensetzung der DBC können wir systematisch unterschiedliche Strukturen des räumlich eingeschränkten Nanokomposits erzeugen und ein entsprechendes Phasendiagram bezüglich der NP Konzentration und der DBC Zusammensetzung erstellen. Wir untersuchen auch die durch NP induzierte Orientierung der Lamellenstruktur und analysieren ihre Stabilität.
Um den sogenannten Kommensurabilitäts- und Benetzungsübergang in horizontal orientierten Lamellenstrukturen zu untersuchen haben wir ein Mean-Field Modell entwickelt, welches auf der Annahme der 'starken Segregation' basiert. Unser Modell macht die Vorhersage, dass es möglich ist die Frustration in einem Kompositfilm zu reduzieren, indem man die NP-Monomer-Wechselwirkung entsprechend anpasst. Zusätzlich sagt das Modell einen diskontinuierlichen Übergang zwischen der unbenetzten Phase (Ausbildung einer dichten NP Konzentration an der Polymer-Substrat Grenzschicht) und der benetzten Phase (das Substrat ist ausschließlich vom Polymerkomposit bedeckt) voraus.
Abschließend weiten wir unsere Untersuchungen auf Nicht-Gleichgewichtszustände aus und induzieren durch Scherung der Substratwände einen Strömungprofil im Kompositfilm. Dabei analysieren wir das Strömungsverhalten, die Lamellendeformation und die Änderung der paarweisen Wechselwirkungsenergie. Wir untersuchen auch makroskopische Größen, wie den kinetischen Reibungskoeffizienten und die Viskosität, je in An- und Abwesenheit von Nanopartikeln.
|
439 |
Morphology Control of Copolymer Thin Films by NanoparticlesShagolsem, Lenin Singh 11 December 2013 (has links)
Diblock-Copolymers (DBCs), created by covalently joining two chemically distinct polymer blocks, spontaneously form various nanoscale morphologies such as lamellae, cylinders, spheres, etc. due to the chemical incompatibility of its constituent blocks. This effect is called microphase separation in the literature. Because of this self-organizing property DBCs find applications in many areas e.g. in creating selective membranes, and in polymer based modern electronic devices like organic photovoltaics where the internal morphology plays an important role in determining the performance of the device. Many such modern devices are based on thin film technologies and uses copolymer nanocomposites as it exhibits advantageous electrical, optical, and mechanical properties. Also, DBC can direct the spatial distribution of nanoparticles (NPs) in the polymer matrix via microphase separation. Generally, two types of NPs are distinguished with respect to their monomer affinity: selective NPs which prefer one component of DBC, and non-selective NPs which interact equally with both components of DBC. In this work, using molecular dynamics simulations and analytical calculations, we explore the effect of adding both types of NP in the copolymer matrix considering a thin film (or confined) geometry.
We consider a cylinder forming DBC melt confined by purely repulsive walls in slit geometry and study the behavior of the system upon adding non-selective NPs. Two models of non-selective interactions between the monomers and NPs are applied, i.e repulsive and weakly attractive interactions (athermal and thermal cases respectively). Spatial distribution of NPs in the copolymer matrix is sensitive to the NP-monomer interaction behavior. We focus on the thermal case and discuss, in particular, the following points: (1) role of diblock and polymer-wall interfaces, (2) spatial distribution of NPs, and (3) NP segregation and uptake behavior by the copolymer film. The uptake of NPs by the copolymer film in the thermal case displays a non-monotonic dependence on temperature which can be explained qualitatively using a mean-field model. In general, addition of non-selective NPs do not affect the copolymer morphology and the NPs are preferentially localized at the interface between microphase domains.
Morphological transitions are observed when adding selective NPs to the copolymer matrix. By varying the amount of selective NPs and diblock composition we systematically explore the various structures formed by the nanocomposites under confinement and constructed the corresponding phase diagram in diblock composition and NP concentration. We also discuss the NP induced orientation transition of lamellar structure and study the stability of lamellar phases formed by the nanocomposites.
To study the commensurability and wetting transition of horizontally oriented lamellar phase formed by the nanocomposites we have developed a mean field model based on the strong segregation theory. Our model predicts that it is possible to reduce the frustration in a film of fixed thickness by properly tuning the NP-monomer interaction strength. Furthermore, the model predicts a discontinuous transition between the non-wetted phase (where a dense NP layer is present in the polymer-substrate interface) and wetted phase (where the substrate is covered by polymers).
Finally, we extend our study to non-equilibrium where we apply a shear flow field to copolymer thin films. Here, we study the flow behavior, lamellae deformation and change of pair-wise interaction energy, and macroscopic response like kinetic friction coefficient and viscosity of the copolymer thin film with and without NPs. / Lösungen von Diblock-Copolymeren (DBC), welche durch die kovalente Bindung zweier chemisch unterschiedlicher linearer Polymerblöcke entstehen, können spontan mikroskopische Strukturen ausbilden, welche je nach dem Grad der chemischen Kompatibiliät der Blöcke beispielsweise lamellen-, zylinder- oder kugelartige Formen zeigen. Dieses Phänomen wird meist als Mikrophasenseparation bezeichnet. Aufgrund dieser selbstorganisierenden Eigenschaft finden DBCs Anwendungen in vielen Bereichen der Forschung und der Industrie. Beispielsweise zur Erzeugung selektiver Membranen oder in moderner polymerbasierter Elektronik, wie organischen Solarzellen, wo die innere Struktur eine wichtige Rolle spielt um die Leistungsfähigkeit zu erhöhen. Viele moderne Geräte basieren auf der Technologie dünner Schichten und nutzen Copolymer-Nanokomposite um elektrische, optische oder mechanische Eigenschaften zu verbessern.
In Folge der Mikrophasenseparation kann man mit Hilfe von DBC die räumliche Verteilung von Nanopartikeln (NP) in der Polymermatrix kontrollieren. Man unterscheidet im Allgemeinen zwischen zwei Arten von NP: selektive NP, welche eine der beiden Komponenten der DBC bevorzugen und nicht-selektive NP, welche mit beiden Komponenten gleichartig wechselwirken. In der vorliegenden Arbeit nutzen wir molekulardynamische Simulationen und analytische Rechnungen um den Eigenschaften zu studieren, welche eine Zugabe von selektiven und nicht-selektiven NP auf eine dünnschichtige Copolymermatrix hat.
Wir betrachten eine zylinderformende Schmelze aus DBC, welche in einem dünnen Film, zwischen zwei harten Wänden eingeschränkt ist, und untersuchen das Verhalten des Systems unter Zugabe nicht-selektiver NP. Zwei Modelle nicht-selektiver Wechselwirkungen werden angenommen: ausschließlich repulsive (athermische) Wechselwirkungen und schwach anziehende (thermische) Wechselwirkungen. Die räumliche Verteilung der NP ist abhängig von dem jeweiligen Wechselwirkungsverhalten. Wir konzentrieren uns hierbei auf den thermischen Fall und diskutieren speziell folgende Schwerpunkte: (1.) die Rolle der sich ausbildenden Grenzschichten, (2.) die räumliche Verteilung der NP und (3.) die Abscheidung der NP, sowie die Aufnahmefähigkeit derselben durch die Polymermatrix. Im thermische Fall zeigt die Aufnahme der NP durch die Copolymerschicht eine nicht-monotone Abhängigkeit von der Temperatur, was mit Hilfe eines Mean-Field Modells erklärt werden kann. Die Zugabe nicht-selektiver NP hat keinen Einfluss auf die Struktur der Copolymermatrix und die NP werden vorzugsweise an der Grenzschicht der jeweiligen Mikrophasen gefunden.
Im Gegensatz dazu kann man durch die Zugabe selektiver NP eine Strukturveränderung in der Copolymermatrix feststellen. Durch Veränderung der Menge der NP und der Zusammensetzung der DBC können wir systematisch unterschiedliche Strukturen des räumlich eingeschränkten Nanokomposits erzeugen und ein entsprechendes Phasendiagram bezüglich der NP Konzentration und der DBC Zusammensetzung erstellen. Wir untersuchen auch die durch NP induzierte Orientierung der Lamellenstruktur und analysieren ihre Stabilität.
Um den sogenannten Kommensurabilitäts- und Benetzungsübergang in horizontal orientierten Lamellenstrukturen zu untersuchen haben wir ein Mean-Field Modell entwickelt, welches auf der Annahme der 'starken Segregation' basiert. Unser Modell macht die Vorhersage, dass es möglich ist die Frustration in einem Kompositfilm zu reduzieren, indem man die NP-Monomer-Wechselwirkung entsprechend anpasst. Zusätzlich sagt das Modell einen diskontinuierlichen Übergang zwischen der unbenetzten Phase (Ausbildung einer dichten NP Konzentration an der Polymer-Substrat Grenzschicht) und der benetzten Phase (das Substrat ist ausschließlich vom Polymerkomposit bedeckt) voraus.
Abschließend weiten wir unsere Untersuchungen auf Nicht-Gleichgewichtszustände aus und induzieren durch Scherung der Substratwände einen Strömungprofil im Kompositfilm. Dabei analysieren wir das Strömungsverhalten, die Lamellendeformation und die Änderung der paarweisen Wechselwirkungsenergie. Wir untersuchen auch makroskopische Größen, wie den kinetischen Reibungskoeffizienten und die Viskosität, je in An- und Abwesenheit von Nanopartikeln.
|
440 |
Bruk av UCAV i nærstøtte for landoperasjonerIversen, Sverre G. January 2003 (has links)
Utviklingen innen UAV er stor og bruken av slike systemer har fått stor oppmerksomhet.Spesielt etter at de er nyttet til bekjempning av mål under de seneste konfliktene. Samtidigpågår det nå en begynnende utvikling av offensive systemer, såkalte UCAV’er som skal kunnebekjempe mål blant annet på bakken.Landoperasjonen krever systemer med høyt tempo, fleksibilitet og systemer som har evne til åvirke kombinert for å få størst mulig effekt på motstanderen. Forfatteren henter krav til slikesystemer gjennom å beskrive landoperasjoner og hvordan nærstøtten utføres. Nærstøtten iform av CAS kontrolleres i dag av FAC’er som leder bemannede plattformer og deresvåpensystemer. Oppsatsen beskriver dessuten UCAV systemer og deres komponenter medvekt på autonomi, sensorer, kommunikasjon og våpensystemer. Hensikten med denneoppsatsen er å knytte sammen utførelsen av nærstøtte generelt og CAS spesielt medbeskrivelsen av UCAV systemer for å finne frem til hvordan nærstøtte tillandoperasjonene best kan utføres med UCAV. Oppsatsen svarer derfor på spørsmålenehvordan CAS kan ledes og utføres med UCAV og hvordan en slik UCAV bør konfigureres oghvilke krav som kan stilles til denne. / The development in the field of UAVs is extensive and gaining in focus andinterest as their mission catalogue is widened. The recent use of weaponizedUAVs in Afghansistan and Iraq to combat an array of targets has shown theirpotential. At the same time there is an ongoing development of offensivesystemes known as UCAVs, designed to strike targets all throughout thebattlespace.Land operations demands systems which allow tempo, flexibility and the useof combined effects to achieve the maximum possible dislocation of theopponent. The author arrives at preconditions for such systems to partakeeffectively by outlining land operations and describing the conduct of closesupport of land formations. Today, the air to ground support part of it iscontrolled by a forward air controller who controls manned platforms andtheir weapon systems. This thesis also describes UCAV systems and theircomponents with focus on authonomy, sensors, communications and weaponsystems.By connecting the conduct of landoperations, close support in general andclose air support (CAS) especially with the description of UCAV systems, thepurpose of the thesis is to outline how CAS to land operations can beconducted with UCAVs. The thesis does this by answering the questions as tohow to control CAS with UCAV and which demands that must be met by theUCAV system. / Avdelning: ALB - Slutet Mag 3 C-upps.Hylla: Upps. ChP T 01-03
|
Page generated in 1.5145 seconds