Spelling suggestions: "subject:"1echnology - electrical engineering"" "subject:"1echnology - alectrical engineering""
231 |
Dynamic QoS Management for Ethernet-based Video Surveillance SystemsTiago José da Silva Rocha 01 August 2018 (has links)
This project consists of a video surveillance system with an integrated quality of service (QoS) manager that operates online, constantly monitoring and setting the QoS parameters.This manager has two components: one that manages the network bandwidth, distributing it through the cameras according to their needs; and another that controls the compression applied by the cameras to each frame in order to use the bandwidth efficiently. The project will focus mainly on the first, which is built on Linux Traffic Control, a Linux service that allows the user to configure traffic scheduling and shaping.
|
232 |
Cervical Cancer Automated Screening Module - CervCancerScreeningJosé Paulo Soares Ferreira 09 August 2016 (has links)
There are more than 100 types of cancer and they are the leading causes of deaths all over the world. Many of them are fatal but many other can be treated if they are diagnosed early on, like the Cervical Cancer. This being said, the Cervical Cancer is still the second leading cause of female deaths in developing countries. The reason behind this is because of the lack of early diagnosis and sometimes even because lack of information. Since the women in this countries do not have gynecological surveillance, mainly because its cost, chances are high that the cancer grows to a state that can no longer be treated. When the surveillance actually exists, it is very expensive since the samples of the tests made need to be sent to another country with access to specific equipment. With the increasing techonological development, it is possible to create a less expensive tool to try to supress some of this problems. The tool will be used to assist the medical staff so that they have a first overview of the patient's cervical cancer results. Nevertheless, the ultimate decision on whether a person actually has or does not have cancer comes from the doctor.The objective of this thesis is to develop a tool that can support and be used by developing countries health facilities, so that they have the first impression about the situation of the patient by analysing the pictures of the samples gathered during the appointment. The main focus of the tool is to analyse and identify specific characteristics of the sample pictures in order to be able to give feedback about the existence of the cancer. In the end, the main objective is to spare those facilities sending the samples to other places and spend more money than they should, as the tool would give some insights about the risks and the need of further analyses.
|
233 |
Software Repository Mining Analytics to Estimate Software Component ReliabilityAndré Tiago Oliveira da Silva Duarte 10 August 2016 (has links)
Dada a crescente necessidade de identificar a localização dos erros no código fonte de software, de forma a facilitar o trabalho dos programadores e a acelerar o processo de desenvolvimento, muitos avanços têm sido feitos na sua automação.Existem três abordagens principais: Program-spectra based (PSB), Model-based diagnosis (MDB) e Program slicing.Barinel, solução que integra tanto o PSB como o MDB, é, até hoje, com base na investigação feita, a que apresenta melhores resultados. Contudo, a ordenação de conjuntos de candidatos (componentes faltosos) não tem em conta a verdadeira qualidade do componente em causa, mas sim o conjunto de valores que maximizam a probabilidade do conjunto (Maximum Likehood Estimation - MLE), devido à dificuldade da sua determinação.Com esta tese pretende-se colmatar esta falha e contribuir para uma melhor ordenação dos conjuntos, classificando, com recurso a técnicas de Machine Learning como Naive Bayes, Support Vector Machines (SVM) ou Random Forests, a qualidade e fiabilidade de cada componente, através das informações disponíveis no sistema de controlo de versões (Software Repository Mining), neste caso Git, como por exemplo: número de vezes que foi modificado, número de contribuidores, data de última alteração, nome de últimos contribuidores e tamanho das alterações.A investigação já feita, revelou a existência de algumas soluções de análise preditiva de software, como BugCache, FixCache e Change Classification, capazes de identificar componentes com grande probabilidade de falhar e de classificar as revisões (commits) como faltosas ou não, mas nenhuma soluciona o problema.Este trabalho visa também a integração com o Crowbar e a contribuição para a sua possível comercialização. / Given the rising necessity of identifying errors on the source code of software, in order to make the developers work easier and to speed up the development process, many progresses have been made in its automation.There are three main approaches: Program-spectra based (PSB), Model-based diagnosis (MDB) and Program slicing.Barinel, solution that integrates both PSB and MDB, is, until now, to our knowledge, the option that guarantees the best results. Despite this, the candidates (faulty components) set order doesn't take into account the real quality of the given component. With this thesis we want to fix this issue and contribute for a better candidates ordered set, classifying the quality and reliability of each component, using Machine Learning techniques such as Decision Trees, Support Vector Machines or Random Forests with the information extracted from Git, like: number of times it was modified, number of contributors, date of last change and size of those changes.The research revealed the existence of some software predictive analysis solutions, such as BugCache, FixCache and Change Classification, capable of identifying the components with a high probability of failure and of classifying the changes (commits) as faulty or clean. But none solves our issue.This work also aims to integrate with Crowbar and to contribute to its possible commercialization.
|
234 |
Sistema de Sensorização e Telemetria para o FEUP VECTiago Francisco Carção Gil 29 July 2016 (has links)
A terminar a programação do protótipo funcional. 80% do trabalho efetuado e a funcionar, faltando realizar uma interface em JAVA que faça um display de a posição em tempo real do veículo, bem como a resolução dos diversos BUG's que foram surgindo.
|
235 |
Unpacking Framework for Packed Malicious ExecutablesGaspar de Lacerda Aroso Furtado 18 July 2013 (has links)
No description available.
|
236 |
Shamanic interface for computers and gaming platformsFilipe Miguel Alves Bandeira Pinto de Carvalho 25 March 2014 (has links)
No description available.
|
237 |
Plataforma para a Conceção, Simulação e Desenvolvimento de Sistemas Multiagente de QuadcoptersRúben Filipe Delindro Veloso 16 April 2014 (has links)
No description available.
|
238 |
Uma abordagem ontológica para modelação de informação espaciotemporal com aplicações em transportesAlexey Seliverstov 31 July 2015 (has links)
O trabalho realizado na dissertação é desenvolvido no contexto da análise de dados espaciotemporais, mais propriamente dados de redes rodoviárias. Nos dias de hoje existe uma grande quantidade de dados. Estes estão constantemente a ser gerados por todos ou quase todos os dispositivos eletrónicos que nos rodeiam. O aproveitamento destes dados tem cada vez mais atraído a atenção dos investigadores e de empresas a investigar e a investir nesse sentido. Dados atualmente também são gerados pelos sensores instalados nas estradas. Estes sensores podem ser tanto fixos, como é o caso das espiras magnéticas ou câmaras de videovigilância, como também podem ser móveis, que é o caso dos floating cars. Todos estes sensores geram dados e a sua leitura, compreensão e uso são muito importantes para a realização de uma boa análise acerca de tráfego rodoviário. Para que seja possível analisar dados provenientes de variadas fontes, ou neste caso provenientes de variados sensores, é necessário efetuar junção de dados ou até das próprias fontes de dados. Isso é uma tarefa complexa e tediosa se for feita com base em técnicas clássicas como agregação de esquemas relacionais ou até junção manual dos dados. É necessário arranjar técnicas que permitam efetuar essa tarefa de uma maneira fácil e de preferência automática. Felizmente métodos com base em ontologias surgiram para tratar este tipo de problemas. Com estes métodos é possível juntar várias fontes de dados com a manutenção do significado dos dados e sem a necessidade de fazer tudo manualmente. Com base nesta metodologia, pretende-se neste trabalho abordar ontologicamente os dados e sensores rodoviários, efetuando a sua junção. É requerido aplicar o resultado dessa junção num sistema com arquitetura orientada a serviços, de maneira a que clientes possam facilmente se conectar ao sistema através de serviço disponibilizados por este. A povoação do modelo ontológico será feito inicialmente com logs GPS, dados de espiras magnéticas (cedidos pela Estradas de Portugal e inicialmente somente da VCI) e OpenStreetMaps. Também serão utilizados dados provenientes de simuladores para o preenchimento de eventuais lacunas que possam existir nos dados reais. Posteriormente é requerido integrar o simulador SUMO, pretendendo-se alargar o suporte a outros. Como resultado final é esperada a elaboração de um repositório geográfico científico para análise de sistemas de transportes a ser usado por variados utilizadores, com diferentes interesses ou objetivos relativamente aos dados disponibilizados. / This dissertation work is developed in the context the spatiotemporal data analysis, specifically transportation data. Nowadays there is a great amount of available data. This is because almost every electronic device that is around us generates data. Usage of this resource attracts researchers and companies to research and invest on ways to do so. Even roads are generating data through sensors. These sensors can be fixed, which is the case of inductive loops and video surveillance cameras, as well as mobile, such as the case of floating cars. Data readability, comprehension and usage are of vital importance for a proper traffic analysis. To be possible to analyse data from different data sources, or sensors in this specific case, it is necessary to integrate this data. Bearing this in mind, it is also known that this task is difficult if performed manually. So it is necessary to research new techniques which would allow us to simplify this task, and preferentially automate it. Fortunately there are methods based on ontologies which help tackling those problems. They allow us to integrate many data sources and maintain the original meaning and form of such data. Based on this methodology sensors and data will be approached on an ontology basis, allowing for their integration in one single representation. After that, such an integrated system will be shared through a service-oriented architecture. This will allow clients to easily access the data present in the system. GPS logs, OpenStreetMaps and inductive loop data will be used to populate this ontological model. Afterwards data from simulators such as SUMO will also be used to fill in possible gaps that might not be covered by real data. One expected result from this dissertation is that a scientific geographic repository can devised and implemented to be used for the transportation analysis by many clients with different needs and interests.
|
239 |
Towards DevOps: Practices and Patterns from the Portuguese Startup SceneCarlos Manuel da Costa Martins Teixeira 13 September 2016 (has links)
Formed by combining the word Development with the word Operations, DevOps has been around for sometime. Uses and appearances of the word have been seen in different contexts and with different meanings making it a topic of discussion and discord. For some DevOps is a movement aiming to conciliate Operations and Developers, others believe that its just a set of tools that help automate operations tasks and procedures and others see it as a job or tittle for professionals that combine developer and operations skills.In this thesis we demystify DevOps by reviewing what has been written about DevOps and by looking at some of the organizations that practice it.The end result is a set of observed patterns and compiled information regarding DevOps and its implementation.
|
240 |
Informação Clínica em Tempo RealAntónio Joaquim Ribeiro Garcez 30 July 2015 (has links)
A web, nos seus primeiros tempos, era basicamente constituída por páginas web cujo conteúdo era estático (algumas páginas web recorriam a software externo para alterar o conteúdo). O conteúdo da página só era atualizado quando o utilizador mandasse recarregar a página web. Contudo, com o processo de migração das aplicações, até aqui, standalone para a web houve a necessidade de desenvolver técnicas e tecnologias que, nativamente, conseguissem alterar o conteúdo da página web sem ter de recarregar manualmente e assim poder mostrar informação em tempo real.Devido à facilidade com que é implementada e aos excelentes resultados que consegue obter, as empresas, nas mais diversas áreas, começaram a utilizar polling para atualizar a informação nas aplicações web que desenvolviam. O polling é uma técnica que, graças a um grande número de pedidos HTTP feitos pelo cliente num pequeno intervalo de tempo, permite dar a ideia ao utilizador de que é o servidor que está a informar o cliente sobre as atualizações que estão a acontecer. O aumento de utilizadores e a fiabilidade da informação exigida em algumas aplicações web fez com que as limitações do polling ficassem expostas. Os principais problemas relacionados com a utilização do polling estão relacionados com uma diminuição no desempenho do servidor e com o aumento no tráfego da rede. Estas duas limitações podem fazer com que a informação chegue ao cliente com atraso significativo ou, em casos mais extremos, que acabe por não chegar ao cliente.Numa área tão sensível como é a área da saúde, não pode haver falhas de informação uma vez que pode induzir em erro os profissionais de saúde o que pode acabar por comprometer a saúde dos doentes internados.Para este trabalho, o primeiro objetivo passa pela elaboração de uma pesquisa sobre todas as técnicas que permitam a uma aplicação web mostrar informação em tempo real. A partir da pesquisa efetuada e analisando as vantagens e desvantagens das várias técnicas, o segundo objetivo consiste na escolha de uma técnica resolva os problemas encontrados. O terceiro passa, com base na técnica escolhida, por implementar um módulo que permita aos sistemas Glintt mostrar informação em tempo real de uma forma mais eficaz e eficiente, sem que com isso o sistema atual sofra grandes alterações. Por fim, o último objetivo passa pela adaptação de uma aplicação web, previamente desenvolvida, que vai permitir avaliar e testar o módulo implementado. / The Web, in its early days, was mostly comprised of pages whose content was static, although the content of some web pages was dynamically generated by external tools to the Web server. Moreover, the page content was updated only when the user reloaded the web page. However, in the process of migration of standalone applications to the web, there was the need to develop techniques and technologies that, originally, could change the web page content without having to reload it manually and thus showing real time information.Because of the ease with which it is implemented and the excellent results it obtains, the companies, in the most diverse areas, began using polling to update the information in the web applications they developed. Polling is a technique that, thanks to a large number of HTTP requests made by the client in a short time, gives the idea to the user that is the server that informs the client about the updates that are happening. The increase in users and the reliability of information required in some web applications made the polling limitations being exposed. The main problems associated to the use of polling are connected to a decrease in the server performance and the increase in the network traffic. These two limitations may lead to the information reaches the client with significant delay or, in extreme cases, end up not reaching the client.In an area as sensitive as is the area of health, there cannot be information gaps because it can mislead health professionals, which can end up compromising the health of hospitalized patients.For this work, the first goal is to research all the techniques that allow a web application showing real-time information. Starting with the research carried out and analyzing the advantages and disadvantages of the various techniques, the second goal consists in choosing a technique to solve the problems encountered. Taking for base the chosen technology, the third objective is to implement one module that will allow Glintt systems show real time information in a more effective and efficient way without making lots of changes in the current system. Finally, the last goal is the adaptation of an existing web application to be used to evaluate and test the deployed module.
|
Page generated in 0.1344 seconds