• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 10
  • 10
  • Tagged with
  • 156
  • 23
  • 19
  • 13
  • 12
  • 10
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Contrôle d'accès et qualité de service dans les réseaux ad hoc multimédia / Access control and quality of service in multimedia ad hoc networks

Dehbi, Youssef 08 December 2010 (has links)
Cette thèse étudie des problèmes de contrôle d'accès et de qualité de service (QdS) dans les réseaux ad hoc utilisant la norme IEEE 802.11. Dans la première partie de notre travail, nous proposons des améliorations pour la norme 802.11 de base qui ne tient pas compte de la QdS. Au niveau du contrôle d'admission, nous proposons un algorithme d'ordonnancement des flux multimédia qui attribue la priorité aux paquets de manière moins stricte que dans l'algorithme EDF et nous comparons les deux algorithmes par simulation. Au niveau du contrôle d'accès, nous proposons un algorithme qui modifie dynamiquement la fenêtre de contention, et nous effectuons des simulations pour montrer l'amélioration de l'équité entre les stations. Nous nous intéressons par la suite à la différenciation des services, et nous étudions la coexistence de deux classes de service, dont les fenêtres de contention évoluent de manière différente, et évaluons leurs performances en termes de débit et de délai moyen. Ce qui nous amène, dans la deuxième partie de notre travail, à présenter une étude complète de la différenciation des services de l'amendement 802.11e. Nous proposons un cadre analytique général modélisant la méthode d'accès EDCA à l'aide de chaînes de Markov, et définissons quatre méthodes de différenciation, et évaluons les performances des classes en termes de débit, délai moyen et taux de perte. Des approximations pour les réseaux de grande taille nous ont permis d'obtenir, pour un indice de performance fixé, une expression simple de celui de toutes classes en fonction de celui de l'une d'entre elles. Nous déterminons ensuite la relation entre les différents indices de performance des classes, et comparons les différentes méthodes de différenciation, malgré la nature différente de leurs paramètres. De plus, nous établissons analytiquement et vérifions par simulation les conditions d'équivalence, entre les méthodes de différenciation basées sur la distribution du temps de retrait, qui produisent les mêmes performances en termes de débit, délai moyen et taux de perte. Et dans ces conditions, nous analysons l'effet du choix de la distribution sur la gigue. Nos résultats représentent des outils importants pour l'aide à la décision en vue d'atteindre des objectifs de QdS. / This thesis deals with access control and quality of service (QoS) issues in ad hoc networks. In the first part, we propose enhancements of the legacy 802.11 standard which lacks of QoS. For admission control, we propose a scheduling algorithm for multimedia traffic, in which priority is provided to packets with a less strict way than the EDF algorithm, and we compare both algorithms by simulation. For access control, we propose an algorithm that tunes dynamically the contention window, and we use simulations to show improvement of fairness between stations. Then we are interested in service differentiation, and we analyze the coexistence of two service classes having their contention window evolving in different ways, and we evaluate their performances in terms of throughput and mean delay. This leads us, in the second part of this thesis, to present a complete study of service differentiation in the 802.11e amendment. We propose a general analytical framework in which we model the EDCA access scheme by Markov chains. We define and study four differentiation schemes and evaluate class performances in terms of throughput, mean delay and drop ratio. Using approximations for large networks, we derive, for a given class performance index, a simple expression of this index in the other classes. That allows us to determine the relationship between class performances, and compare the differentiation schemes even if the nature of their parameters is different. Moreover, we determine analytically and verify by simulation equivalence conditions, between differentiation schemes based on backoff time distribution, that produce the same performances in terms of throughput, mean delay and drop ratio. Then, in these conditions, we analyze the effect of backoff time distribution on jitter. Our results are important tools for decision making in order to meet QoS objectives.
132

Human centred design of software agent in social network service against privacy concerns

Kim, Hojung January 2016 (has links)
The rapid growth and influence of social network services has led many scholars to focus on privacy issues. However, the research described in this thesis was motivated by the small number of design studies that have focused on practical approaches to identifying tacit information from users’ instant non-verbal responses to privacy issues. The research therefore aimed to propose persona models as a design solution for software agent development based on the analysis of users’ emotional and behavioural responses, so as to address privacy issues in social network services. In the definition phase, 21 stakeholders belonging to three key stakeholder groups were recruited for unstandardised semistructured email interviews. Three main considerations for the design of software agents in social network services emerged from the interviews, which were classified into the following categories: comprehensive understanding of users’ perceptions of privacy; user type recognition algorithm for software agent development; and existing software agent enhancement. In the development phase, 50 participants were recruited for the Facebook case study, which included three research strategies: perceptions of privacy questionnaire for user typology; emotional response measurement using Geneva Emotion Wheel; and behavioural response observation using a contextual inquiry method. The participants were classified into four user types by means of cluster analysis: uninformed, trustful, suspicious and neglectful. Each user type’s key emotional responses were identified using Kruskal-Wallis test and Mann-Whitney U test, and key behavioural responses using affinity diagrams. This generated persona models of each user type that reflected the correlations between users’ perceptions of privacy, key emotional responses and key behavioural responses. Two fundamental features of the software agent were also proposed based on the persona models: confirmation and guidance. In the validation phase, software agent prototypes were created based on the proposed persona models. A total of 206 participants completed the online survey which included two sections: perceptions of privacy questionnaire for user typology replication, and key emotional responses measurement before and after the intervention of the software agent prototypes. Cluster analysis replication validated the proposed user typology, and Wilcoxon signed-rank test of key emotional responses validated the proposed persona models. By implementing the research outcomes, the software agent described in this thesis would be able to provide users with appropriate services based on their user types, to reduce the number of those who are still unaware of privacy practice and those who neglect their accounts, and to expand the size of a user group pursuing sound relationships.
133

Automatic Web widgets prediction for Web 2.0 access technologies

Chen, Alex Qiang January 2013 (has links)
The World Wide Web (Web) has evolved from a collection of static pages that need reloading every time the content changes, into dynamic pages where parts of the page updates independently, without reloading it. As such, users are required to work with dynamic pages with components that react to events either from human interaction or machine automation. Often elderly and visually impaired users are the most disadvantaged when dealing with this form of interaction. Operating widgets require the user to have the conceptual design knowledge of the widget to complete the task. Users must have prior experience with the widget or have to learn to operate it independently, because often no user documentation is available. An automated Widget Prediction Framework (WPF) is proposed to address the issues discussed. It is a pre-emptive approach that predicts different types of widget and their locations in the page. Widgets with similar characteristics and functionalities are categorised based on a definition provided by widget design pattern libraries. Some design patterns are more loosely defined than others, and this causes confusion and ambiguity when identifying them. A formal method to model widgets based on a Widget Ontology was developed. The paradigm of the ontology provides a framework for developers to communicate their ideas, while reducing ambiguity between different types of widget. A Widget Prediction System (WPS) was developed using the concepts of the WPF. To select the types of widget for WPS evaluation, a widget popularity investigation was conducted. Seven of the most popular widgets from the investigation, done across fifty Websites, were selected. To demonstrate how WPF can be applied to predict widgets, fifty websites were used to evaluate the feasibility of the approach using WPS. On average, WPS achieved 61.98% prediction accuracy with two of the widgets > 84% accuracy. These results demonstrated the feasibility of the framework as the backend for tools that support elderly or visually impaired users.
134

The role of social media in relation to knowledge transfer and professional development

Zijlstra, Tim January 2016 (has links)
Introduction: Professional development is an important aspect of working practices for academic librarians. In the past decades the academic library has been subjected to an enormous range of technological and cultural advancements that have constantly required its staff to develop their professional knowledge and understanding. One of the most recent revolutions has been the advent of social media. This advent of a new technology can provide challenges and opportunities but to fully understand these we need to analyse the relationship between social media and various context in more depth. Method: This inductive grounded theory study was iteratively conducted in three different academic libraries in England. At each location an analysis of the social media in use both organisationally and individually was made, and a purposefully selected number of actors was interviewed to gain a deeper understanding of their ideas about social media, CPD and the potential to learn from social media. Findings: The findings demonstrate that the managerial view of CPD is not necessarily compatible with the perception, or needs, of practitioners in relation to their professional development. To increase understanding of this domain, the study analysed the underlying factors related to both social media use and perception, and participation in and perception of professional development. This has led to the discovery of a theory that can be summarised as Continuous Professional Adaptation is learning that occurs as a consequence of professional awareness and preparedness through the use of informal networks. Outcome: The grounded theory presented in this document demonstrates a need to expand the dialogue on professional development in academic libraries, in both an academic and practical context, based on the advent of social media. Formal development in the shape of Continuing Professional Development (CPD) is still regarded as the most relevant method of developing human resources due to the prevalence of a managerial approach to professional development. Conclusion: Increasingly academics and practitioners require more than the formal approach to professional development which can be classed as increasingly being irrelevant due to practical limitations of delivery time and mode and speed of changes occurring. This research contributes to that dialogue, providing a unique approach by incorporating social media with professional development.
135

Matching user accounts across online social networks : methods and applications / Corrélation des profils d'utilisateurs dans les réseaux sociaux : méthodes et applications

Goga, Oana 21 May 2014 (has links)
La prolifération des réseaux sociaux et des données à caractère personnel apporte de nombreuses possibilités de développement de nouvelles applications. Au même temps, la disponibilité de grandes quantités de données à caractère personnel soulève des problèmes de confidentialité et de sécurité. Dans cette thèse, nous développons des méthodes pour identifier les différents comptes d'un utilisateur dans des réseaux sociaux. Nous étudions d'abord comment nous pouvons exploiter les profils publics maintenus par les utilisateurs pour corréler leurs comptes. Nous identifions quatre propriétés importantes - la disponibilité, la cohérence, la non-impersonabilite, et la discriminabilité (ACID) - pour évaluer la qualité de différents attributs pour corréler des comptes. On peut corréler un grand nombre de comptes parce-que les utilisateurs maintiennent les mêmes noms et d'autres informations personnelles à travers des différents réseaux sociaux. Pourtant, il reste difficile d'obtenir une précision suffisant pour utiliser les corrélations dans la pratique à cause de la grandeur de réseaux sociaux réels. Nous développons des schémas qui obtiennent des faible taux d'erreur même lorsqu'elles sont appliquées dans les réseaux avec des millions d'utilisateurs. Ensuite, nous montrons que nous pouvons corréler les comptes d'utilisateurs même si nous exploitons que leur activité sur un les réseaux sociaux. Ça sa démontre que, même si les utilisateurs maintient des profils distincts nous pouvons toutefois corréler leurs comptes. Enfin, nous montrons que, en identifiant les comptes qui correspondent à la même personne à l'intérieur d'un réseau social, nous pouvons détecter des imitateurs. / The proliferation of social networks and all the personal data that people share brings many opportunities for developing exciting new applications. At the same time, however, the availability of vast amounts of personal data raises privacy and security concerns.In this thesis, we develop methods to identify the social networks accounts of a given user. We first study how we can exploit the public profiles users maintain in different social networks to match their accounts. We identify four important properties – Availability, Consistency, non- Impersonability, and Discriminability (ACID) – to evaluate the quality of different profile attributes to match accounts. Exploiting public profiles has a good potential to match accounts because a large number of users have the same names and other personal infor- mation across different social networks. Yet, it remains challenging to achieve practically useful accuracy of matching due to the scale of real social networks. To demonstrate that matching accounts in real social networks is feasible and reliable enough to be used in practice, we focus on designing matching schemes that achieve low error rates even when applied in large-scale networks with hundreds of millions of users. Then, we show that we can still match accounts across social networks even if we only exploit what users post, i.e., their activity on a social networks. This demonstrates that, even if users are privacy conscious and maintain distinct profiles on different social networks, we can still potentially match their accounts. Finally, we show that, by identifying accounts that correspond to the same person inside a social network, we can detect impersonators.
136

A quality-centered approach for web application engineering / Une approche centrée sur la qualité pour l'ingénierie des applications Web

Do, Tuan Anh 18 December 2018 (has links)
Les développeurs d'applications Web ne sont pas tous des experts. Même s'ils utilisent des méthodes telles que UWE (UML web engineering) et les outils CASE, ils ne sont pas toujours capables de prendre de bonnes décisions concernant le contenu de l'application web, le schéma de navigation et / ou la présentation des informations. La littérature leur fournit de nombreuses lignes directrices (guidelines) pour ces tâches. Cependant, ces connaissances sont disséminées dans de nombreuses sources et non structurées. Dans cette dissertation, nous capitalisons sur les connaissances offertes par ces lignes directrices. Notre contribution est triple: (i) nous proposons un méta-modèle permettant une représentation riche de ces lignes directrices, (ii) nous proposons une grammaire permettant la description des lignes directrices existantes, (iii) sur la base de cette grammaire, nous développons un outil de gestion des lignes directrices . Nous enrichissons la méthode UWE avec cette base de connaissances menant à une approche basée sur la qualité. Ainsi, notre outil enrichit les prototypes existants d'ingénierie logicielle assistée par ordinateur basés sur UWE avec des conseils ad hoc. / Web application developers are not all experts. Even if they use methods such as UWE (UML web engineering) and CASE tools, they are not always able to make good decisions regarding the content of the web application, the navigation schema, and/or the presentation of information. Literature provides them with many guidelines for these tasks. However this knowledge is disseminated in many sources and not structured. In this dissertation, we perform a knowledge capitalization of all these guidelines. The contribution is threefold: (i) we propose a meta-model allowing a rich representation of these guidelines, (ii) we propose a grammar enabling the description of existing guidelines, (iii) based on this grammar, we developed a guideline management tool. We enrich the UWE method with this knowledge base leading to a quality based approach. Thus, our tool enriches existing UWE-based Computer Aided Software Engineering prototypes with ad hoc guidance.
137

Cultural impacts on web : an empirical comparison of interactivity in websites of South Korea and the United Kingdom

Kim, Inhwa January 2013 (has links)
This thesis explores cultural differences on interactive design features used in websites of South Korea and the United Kingdom from the perspective of both: professional website designers and end-users. It also investigates how the use of interactive design features from different cultures change over time. Four interaction types on websites; User to Interface (U2I), User to Content (U2C), User to Provider (U2P), and User to User (U2U) interactivity, and three interaction types on blogs; Blogger to Interface (B2I), Blogger to Content (B2C) and Blogger to Blogger (B2B) interactivity have been identified. Four cultural dimensions were used for the theoretical base of this study based on which four hypotheses were proposed in relation to the interaction types identified above; (a) High versus Low Context cultures for U2I, (b) High versus Low Uncertainty Avoidance for U2C, (c) High versus Low Power Distance for U2P and (d) Individualism versus Collectivism for U2U interactivity, in order to discover the effects of national cultures on interactivity in websites. We derived our own interactivity dimensions and mapped them to the four interaction types for websites and three for blogs. Interactive design features were derived from interactivity dimensions and examined in our studies. The findings revealed that there have been some changes towards homogeneity in the use of interactive design features on charity websites between South Korea and United Kingdom although there is still evidence of some cultural differences. With regard to end-users’ perspective, the result show that the use of interactive design features of blogs may be influenced by culture but this is only within a certain context. The findings also provide a valuable indication that users interacting within the same blog service can be considered as being shared concerns rather than shared national location, thus create a particular type of community in which bloggers are affected by social influence so they adopt a shared set of value, preferences and style that would indicate almost a common social culture. As a result, the cultural differences derived from their country of origin do not have that much impact.
138

Génération, visualisation et évaluation d’images HDR : application à la simulation de conduite nocturne / Rendering, visualization and evaluation of HDR images : application to driving simulation at night

Petit, Josselin 03 December 2010 (has links)
Cette thèse se situe à l’interface de deux des sujets de recherche du LEPSi8S, la perception et la réalité virtuelle, appliqués aux transports routiers. L’objectif de la thèse est d’améliorer l’état de l’art concernant le rendu des images de synthèse pour les simulateurs de conduite. L’axe privilégié est le réalisme perceptif des images. L’approche retenue propose un mode de rendu High Dynamic Range, qui permet de générer une image en luminance. La technique proposée permet de réutiliser des environnements virtuels classiques, avec un minimum d’informations supplémentaires concernant les sources lumineuses. Les textures et matériaux existants sont utilisés pour un rendu aussi proche physiquement de la réalité que possible. Ensuite, l’image est traitée avec un opérateur de reproduction de tons, qui compresse la dynamique pour tenir compte des limites liées au dispositif d’affichage, tout en respectant autant que possible un réalisme perceptif du rendu. L’opérateur a été choisi de façon à ce qu’il soit adapté à la simulation de conduite, notamment pour les cas extrêmes (nuit, éblouissement, soleil rasant). Une simulation de l’éblouissement a également été implémentée. L’ensemble du rendu est temps réel, et a été intégré dans la boucle visuelle les simulateurs de conduite du LEPSiS. Enfin, des comparaisons réel-virtuel ont permis de montrer la qualité du rendu HDR obtenu. Des expérimentations avec sujets, sur des photographies (avec une référence réelle) et sur des vidéos, ont de plus montré les meilleures performances d’un opérateur doté d’un modèle visuel humain pour la simulation de conduite, notamment par sa capacité à s’adapter temporellement aux variations de luminance. / The LEPSiS is leading applied research on the transportation field. This PhD addresses perception and virtual reality, two research topics at the LEPSiS. The objective of my PhD was to improve the state of the art of the computer graphic image rendering for driving simulator applications. The main issue was the perceptual realism of the images, notably in high dynamic range conditions (night, glare). The proposed approach puts forward a High Dynamic Range mode, allowing us to render images in luminance.We use classic virtual environments, with small additional information about the light sources. The textures and materials are used for a rendering as close as possible to physical reality. Then, the image is processed by a tone mapping operator, which compresses the luminance dynamic, taking into account the limited range of the display device and the perceptual realism of the rendering. The chosen tone mapping is adapted to driving simulations, and especially to extreme situations (night, skimming sun). A glare simulation was also added. The entire rendering is real time, and is now included in the driving simulators of the LEPSiS. Lastly, real-virtual comparisons assessed the quality of the obtained HDR rendering. Moreover, two psycho-visual experiments with subjects, on photographs (with a real reference) and on video (without reference), showed the relevance of a tone mapping with a human visual model, including temporal adaptation to changing luminance, for driving simulations.
139

Approche robuste pour l’évaluation de la confiance des ressources sur le Web / A robust approach for Web resources trust assessment

Saoud, Zohra 14 December 2016 (has links)
Cette thèse en Informatique s'inscrit dans le cadre de gestion de la confiance et plus précisément des systèmes de recommandation. Ces systèmes sont généralement basés sur les retours d'expériences des utilisateurs (i.e., qualitatifs/quantitatifs) lors de l'utilisation des ressources sur le Web (ex. films, vidéos et service Web). Les systèmes de recommandation doivent faire face à trois types d'incertitude liés aux évaluations des utilisateurs, à leur identité et à la variation des performances des ressources au fil du temps. Nous proposons une approche robuste pour évaluer la confiance en tenant compte de ces incertitudes. Le premier type d'incertitude réfère aux évaluations. Cette incertitude provient de la vulnérabilité du système en présence d'utilisateurs malveillants fournissant des évaluations biaisées. Pour pallier cette incertitude, nous proposons un modèle flou de la crédibilité des évaluateurs. Ce modèle, basé sur la technique de clustering flou, permet de distinguer les utilisateurs malveillants des utilisateurs stricts habituellement exclus dans les approches existantes. Le deuxième type d'incertitude réfère à l'identité de l'utilisateur. En effet, un utilisateur malveillant a la possibilité de créer des identités virtuelles pour fournir plusieurs fausses évaluations. Pour contrecarrer ce type d'attaque dit Sybil, nous proposons un modèle de filtrage des évaluations, basé sur la crédibilité des utilisateurs et le graphe de confiance auquel ils appartiennent. Nous proposons deux mécanismes, l'un pour distribuer des capacités aux utilisateurs et l'autre pour sélectionner les utilisateurs à retenir lors de l'évaluation de la confiance. Le premier mécanisme permet de réduire le risque de faire intervenir des utilisateurs multi-identités. Le second mécanisme choisit des chemins dans le graphe de confiance contenant des utilisateurs avec des capacités maximales. Ces deux mécanismes utilisent la crédibilité des utilisateurs comme heuristique. Afin de lever l'incertitude sur l'aptitude d'une ressource à satisfaire les demandes des utilisateurs, nous proposons deux approches d'évaluation de la confiance d'une ressource sur leWeb, une déterministe et une probabiliste. La première consolide les différentes évaluations collectées en prenant en compte la crédibilité des évaluateurs. La deuxième s'appuie sur la théorie des bases de données probabilistes et la sémantique des mondes possibles. Les bases de données probabilistes offrent alors une meilleure représentation de l'incertitude sous-jacente à la crédibilité des utilisateurs et permettent aussi à travers des requêtes un calcul incertain de la confiance d'une ressource. Finalement, nous développons le système WRTrust (Web Resource Trust) implémentant notre approche d'évaluation de la confiance. Nous avons réalisé plusieurs expérimentations afin d'évaluer la performance et la robustesse de notre système. Les expérimentations ont montré une amélioration de la qualité de la confiance et de la robustesse du système aux attaques des utilisateurs malveillants / This thesis in Computer Science is part of the trust management field and more specifically recommendation systems. These systems are usually based on users’ experiences (i.e., qualitative / quantitative) interacting with Web resources (eg. Movies, videos and Web services). Recommender systems are undermined by three types of uncertainty that raise due to users’ ratings and identities that can be questioned and also due to variations in Web resources performance at run-time. We propose a robust approach for trust assessment under these uncertainties. The first type of uncertainty refers to users’ ratings. This uncertainty stems from the vulnerability of the system in the presence of malicious users providing false ratings. To tackle this uncertainty, we propose a fuzzy model for users’ credibility. This model uses a fuzzy clustering technique to distinguish between malicious users and strict users usually excluded in existing approaches. The second type of uncertainty refers to user’s identity. Indeed, a malicious user purposely creates virtual identities to provide false ratings. To tackle this type of attack known as Sybil, we propose a ratings filtering model based on the users’ credibility and the trust graph to which they belong. We propose two mechanisms, one for assigning capacities to users and the second one is for selecting users whose ratings will be retained when evaluating trust. The first mechanism reduces the attack capacity of Sybil users. The second mechanism chose paths in the trust graph including trusted users with maximum capacities. Both mechanisms use users’ credibility as heuristic. To deal with the uncertainty over the capacity of a Web resource in satisfying users’ requests, we propose two approaches for Web resources trust assessment, one deterministic and one probabilistic. The first consolidates users’ ratings taking into account users credibility values. The second relies on probability theory coupled with possible worlds semantics. Probabilistic databases offer a better representation of the uncertainty underlying users’ credibility and also permit an uncertain assessment of resources trust. Finally, we develop the system WRTrust (Web Resource Trust) implementing our trust assessment approach. We carried out several experiments to evaluate the performance and robustness of our system. The results show that trust quality has been significantly improved, as well as the system’s robustness in presence of false ratings attacks and Sybil attacks
140

Salient object detection and segmentation in videos / Détection d'objets saillants et segmentation dans des vidéos

Wang, Qiong 09 May 2019 (has links)
Cette thèse est centrée sur le problème de la détection d'objets saillants et de leur segmentation dans une vidéo en vue de détecter les objets les plus attractifs ou d'affecter des identités cohérentes d'objets à chaque pixel d'une séquence vidéo. Concernant la détection d'objets saillants dans vidéo, outre une revue des techniques existantes, une nouvelle approche et l'extension d'un modèle sont proposées; de plus une approche est proposée pour la segmentation d'instances d'objets vidéo. Pour la détection d'objets saillants dans une vidéo, nous proposons : (1) une approche traditionnelle pour détecter l'objet saillant dans sa totalité à l'aide de la notion de "bordures virtuelles". Un filtre guidé est appliqué sur la sortie temporelle pour intégrer les informations de bord spatial en vue d'une meilleure détection des bords de l'objet saillants. Une carte globale de saillance spatio-temporelle est obtenue en combinant la carte de saillance spatiale et la carte de saillance temporelle en fonction de l'entropie. (2) Une revue des développements récents des méthodes basées sur l'apprentissage profond est réalisée. Elle inclut les classifications des méthodes de l'état de l'art et de leurs architectures, ainsi qu'une étude expérimentale comparative de leurs performances. (3) Une extension d'un modèle de l'approche traditionnelle proposée en intégrant un procédé de détection d'objet saillant d'image basé sur l'apprentissage profond a permis d'améliorer encore les performances. Pour la segmentation des instances d'objets dans une vidéo, nous proposons une approche d'apprentissage profond dans laquelle le calcul de la confiance de déformation détermine d'abord la confiance de la carte masquée, puis une sélection sémantique est optimisée pour améliorer la carte déformée, où l'objet est réidentifié à l'aide de l'étiquettes sémantique de l'objet cible. Les approches proposées ont été évaluées sur des jeux de données complexes et de grande taille disponibles publiquement et les résultats expérimentaux montrent que les approches proposées sont plus performantes que les méthodes de l'état de l'art. / This thesis focuses on the problem of video salient object detection and video object instance segmentation which aim to detect the most attracting objects or assign consistent object IDs to each pixel in a video sequence. One approach, one overview and one extended model are proposed for video salient object detection, and one approach is proposed for video object instance segmentation. For video salient object detection, we propose: (1) one traditional approach to detect the whole salient object via the adjunction of virtual borders. A guided filter is applied on the temporal output to integrate the spatial edge information for a better detection of the salient object edges. A global spatio-temporal saliency map is obtained by combining the spatial saliency map and the temporal saliency map together according to the entropy. (2) An overview of recent developments for deep-learning based methods is provided. It includes the classifications of the state-of-the-art methods and their frameworks, and the experimental comparison of the performances of the state-of-the-art methods. (3) One extended model further improves the performance of the proposed traditional approach by integrating a deep-learning based image salient object detection method For video object instance segmentation, we propose a deep-learning approach in which the warping confidence computation firstly judges the confidence of the mask warped map, then a semantic selection is introduced to optimize the warped map, where the object is re-identified using the semantics labels of the target object. The proposed approaches have been assessed on the published large-scale and challenging datasets. The experimental results show that the proposed approaches outperform the state-of-the-art methods.

Page generated in 0.0385 seconds