• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 95
  • 27
  • 6
  • 2
  • 1
  • 1
  • Tagged with
  • 133
  • 35
  • 22
  • 19
  • 16
  • 14
  • 14
  • 11
  • 11
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

A multi-modelS based approach for the modelling and the analysis of usable and resilient partly autonomous interactive systems / Une approche à base de modèles pour la modélisation et l'analyse de systèmes partiellement autonomes utilisables et résilients

Ragosta, Martina 07 May 2015 (has links)
La croissance prévisionnelle du trafic aérien est telle que les moyens de gestion actuels doivent évoluer et être améliorés et l'automatisation de certains aspects de cette gestion semble être un moyen pour gérer cet accroissement du trafic tout en gardant comme invariant un niveau de sécurité constant. Toutefois, cette augmentation du trafic pourrait entraîner un accroissement de la variabilité de la performance de l'ensemble des moyens de gestion du trafic aérien, en particulier dans le cas de dégradation de cette automatisation. Les systèmes de gestion du trafic aérien sont considérés comme complexes car ils impliquent de nombreuses interactions entre humains et systèmes, et peuvent être profondément influencés par les aspects environnementaux (météorologie, organisation, stress ...) et tombent, de fait, dans la catégorie des Systèmes Sociotechniques (STS) (Emery & Trist, 1960). A cause de leur complexité, les interactions entre les différents éléments (humains, systèmes et organisations) de ces STS peuvent être linéaires et partiellement non linéaires, ce qui rend l'évolution de leur performance difficilement prévisible. Au sein de ces STS, les systèmes interactifs doivent être utilisables, i.e. permettre à leurs utilisateurs d'accomplir leurs tâches de manière efficace et efficiente. Un STS doit aussi être résilient aux perturbations telles que les défaillances logicielles et matérielles, les potentielles dégradations de l'automatisation ou les problèmes d'interaction entre les systèmes et leurs opérateurs. Ces problèmes peuvent affecter plusieurs aspects des systèmes sociotechniques comme les ressources, le temps d'exécution d'une tâche, la capacité à d'adaptation à l'environnement... Afin de pouvoir analyser l'impact de ces perturbations et d'évaluer la variabilité de la performance d'un STS, des techniques et méthodes dédiées sont requises. Elles doivent fournir un support à la modélisation et à l'analyse systématique de l'utilisabilité et de la résilience de systèmes interactifs aux comportements partiellement autonomes. Elles doivent aussi permettre de décrire et de structurer un grand nombre d'informations, ainsi que de traiter la variabilité de chaque élément du STS et la variabilité liée à leurs interrelations. Les techniques et méthodes existantes ne permettent actuellement ni de modéliser un STS dans son ensemble, ni d'en analyser les propriétés d'utilisabilité et de résilience (ou alors se focalisent sur un sous-ensemble du STS perdant, de fait, la vision systémique). / The current European Air Traffic Management (ATM) System needs to be improved for coping with the growth in air traffic forecasted for next years. It has been broadly recognised that the future ATM capacity and safety objectives can only be achieved by an intense enhancement of integrated automation support. However, increase of automation might come along with an increase of performance variability of the whole ATM System especially in case of automation degradation. ATM systems are considered complex as they encompass interactions involving humans and machines deeply influenced by environmental aspects (i.e. weather, organizational structure) making them belong to the class of Socio-Technical Systems (STS) (Emery & Trist, 1960). Due to this complexity, the interactions between the STS elements (human, system and organisational) can be partly linear and partly non-linear making its performance evolution complex and hardly predictable. Within such STS, interactive systems have to be usable i.e. enabling users to perform their tasks efficiently and effectively while ensuring a certain level of operator satisfaction. Besides, the STS has to be resilient to adverse events including potential automation degradation issues but also interaction problems between their interactive systems and the operators. These issues may affect several STS aspects such as resources, time in tasks performance, ability to adjust to environment, etc. In order to be able to analyse the impact of these perturbations and to assess the potential performance variability of a STS, dedicated techniques and methods are required. These techniques and methods have to provide support for modelling and analysing in a systematic way usability and resilience of interactive systems featuring partly autonomous behaviours. They also have to provide support for describing and structuring a large amount of information and to be able to address the variability of each of STS elements as well as the variability related to their interrelations. Current techniques, methods and processes do not enable to model a STS as a whole and to analyse both usability and resilience properties. Also, they do not embed all the elements that are required to describe and analyse each part of the STS (such as knowledge of different types which is needed by a user for accomplishing tasks or for interacting with dedicated technologies). Lastly, they do not provide means for analysing task migrations when a new technology is introduced or for analysing performance variability in case of degradation of the newly introduced automation. Such statements are argued in this thesis by a detailed analysis of existing modelling techniques and associated methods highlighting their advantages and limitations. This thesis proposes a multi-models based approach for the modelling and the analysis of partly-autonomous interactive systems for assessing their resilience and usability. The contribution is based on the identification of a set of requirements needed being able to model and analyse each of the STS elements. Some of these requirements were met by existing modelling techniques, others were reachable by extending and refining existing ones. This thesis proposes an approach which integrates 3 modelling techniques: FRAM (focused on organisational functions), HAMSTERS (centred on human goals and activities) and ICO (dedicated to the modelling of interactive systems). The principles of the multi-models approach is illustrated on an example for carefully showing the extensions proposed to the selected modelling techniques and how they integrate together. A more complex case study from the ATM World is then presented to demonstrate the scalability of the approach. This case study, dealing with aircraft route change due to bad weather conditions, highlights the ability of the integration of models to cope with performance variability of the various parts of the STS
32

Automatiserad aktiv penetrationstest med Metasploit via webbplatser

Hjartarson, Tomas Myung, Blomberg, Joakim, Sakac, Fredrik January 2011 (has links)
I dagens samhälle har internet blivit en stor del av vårt dagliga liv. Nu utför man nästan alla sina ärenden på internet via olika webbplatser. Man handlar böcker, elektronik, utför bankärenden och läser nyheterna. Många antar att dessa webbplatser är säkra, men de flesta är medvetna om någon typ av hot på internet. De vet att man inte ska öppna program eller filer man inte känner igen, dock finns det fler faror. Vårt projekt går ut på att skapa en automatiserad process som visar dessa faror. Vi vill visa att det räcker med att gå in på en webbplats och trycka på en knapp för att kunna bli utsatt för dataintrång. Vi använder en LAMP-server för att tillhandahålla webbplatsen och Metasploit Framework för att åstadkomma det automatiska data-intrånget. När intrångsförsöket är slutfört presenteras resultatet för användarna som då vet om de är sårbara för Metasploits verktyg. Vi visar detta både genom text på webbplatsen och genom modifieringar på användarnas system. Som avslutning ser vi till att inga bakdörrar eller dylikt från Metasploit finns kvar på systemet. / In today’s society the internet plays a large part of our ordinary lives. Nowadays one does almost all of ones errands via the internet. You buy books, electronics, solve bank errands and read the news. Many assume that these sites are safe, but are they really aware of the dangers that exists on various websites? Most users know that they should not execute programs or open files that they do not recognize, although these are not the only dangers that users should be aware of. We want to show that it is enough to just visit a seemingly harmless website and click a button to become a victim of computer intrusion. We will be utilizing a LAMP-server to supply the website and the Metasploit Framework to execute the automized penetration. After the process is finished the user will be presented the results on the website stating whether the computer system is vulnerable of the exploits used by the Metasploit Framework or not. We will show the end result both by text on the website and by modifying the users system. After the test is completed we will make sure that there are no residual effects on the computer system.
33

Changements et résistances dans une administration publique: les fonctionnaires face à l'informatisation

Wilkin, Luc January 1984 (has links)
Doctorat en sciences sociales, politiques et économiques / info:eu-repo/semantics/nonPublished
34

Amplification automatique de tests unitaires pour DevOps / Automatic unit test amplification for DevOps

Danglot, Benjamin 14 November 2019 (has links)
Au cours des dernières années, les tests unitaires sont devenus un élément essentiel de tout projetlogiciel sérieux afin de vérifier son bon fonctionnement.Cependant, les tests sont fastidieux et coûteux pour l'industrie: il est difficile d'évaluer le retour surinvestissement.Pour surmonter ce problème, la recherche étudie l'automatisation de la création de tests.Même si ces suites de tests générées automatiquement ont une très bonne qualité, il existe toujours desobstacles à l'adoption de telles techniques par l'industrie.Cela s'explique par les difficultés à comprendre, intégrer et gérer la suite de tests générée.L'objectif de cette thèse est de remédier à ces difficultés en proposant une nouvelle technique quiproduit des nouveaux tests basés sur les tests existants. Cette technique s'appelle "amplification detests". Par construction, ces nouveaux tests sont donc proches des tests écrits par des humains, et doncsont faciles à comprendre, à intégrer et à gérer. Cette approche est implémentée sous forme d'un outilappelé DSpot. / In recent years, unit testing has become an essential part of any serious software project to verify itsproper functioning.However, the tests are tedious and expensive for the industry: it is difficult to evaluate the return oninvestment.To overcome this problem, the research is investigating the automation of test creation.Although these automatically generated test suites are of high quality, there are still barriers to theindustry adoption of such techniques.This is because of the difficulty in understanding, integrating, and managing the generated test suite.The objective of this thesis is to overcome these difficulties by proposing a new technique thatproduces new tests based on existing tests. This technique is called "test amplification". Byconstruction, these new tests are close to the tests written by humans, and therefore are easy tounderstand, integrate and manage. This approach is implemented as a tool called DSpot.
35

Conception d'une interface avec réalité augmentée pour la conduite automobile autonome / Design of an interface with augmented reality for autonomous driving

Pokam Meguia, Raïssa 31 August 2018 (has links)
Cette thèse a été réalisée dans le cadre d’un projet intitulé Localisation et Réalité Augmentée (LRA). Mettant en relation plusieurs structures industrielles et universitaires, ce projet était appliqué à la fois au domaine ferroviaire et aux voitures autonomes. Elle aborde trois questions principales relatives à la conception des interfaces Humain-Machine dans les voitures autonomes : quelles informations faut-il présenter au conducteur ? Sous quelle forme ? À quel moment ou dans quel contexte ? Elle vise, au travers des réponses apportées à ces questions, à rendre le système « transparent », de façon à susciter une calibration de la confiance appropriée du conducteur en la voiture autonome mais aussi à susciter une expérience utilisateur satisfaisante. Nous nous sommes focalisés en particulier sur la tâche de changement de voie réalisée entièrement réalisée par la voiture autonome. Pour atteindre cet objectif, nous avons déployé une méthodologie comportant cinq étapes. Sur la base du modèle de LYONS (2013), des principes généraux de transparence ont été définis, et ont ensuite été opérationnalisées grâce à la démarche Cognitive Work Analysis. La forme des informations utiles ou potentiellement utiles au conducteur a été définie lors de de séances de créativité et en utilisant la Réalité Augmentée qui est au cœur du projet LRA. Ces informations ont été catégorisées selon les différentes fonctions dont elles résultent (prise d’information, analyse de l’information, prise de décision, implémentation de l’action). Cinq interfaces ont été conçues ; elles présentent des informations relevant de tout ou partie de ces 4 catégories. Elles représentent donc des niveaux de transparence plus ou moins élevés. La validité des principes de transparence a été éprouvée grâce à une expérimentation menée sur simulateur, auprès d’un échantillon de 45 personnes, durant laquelle différents indicateurs des activités cognitives et de l’Expérience Utilisateur ont été mesurés. L’analyse de ces données conduit à mettre en évidence des différences entre les cinq interfaces. L’interface présentant les informations issues des fonctions « prise d’information » et « implémentation de l’action » facilite les activités cognitives du conducteur/ Superviseur. Du point de vue de l’Expérience Utilisateur, c’est l’interface présentant toutes les catégories d’informations qui s’est distinguée des autres. / This doctoral thesis was conducted under the canopy of the Localization and Augmented Reality (LAR) project. The research project was focused on railway yard and autonomous vehicles. The thesis provides answers to three main questions about the Human-Machine interface design in autonomous vehicles: Which information should be conveyed to the human agent? In which form? And when? Answers will enable an appropriate trust calibration of the human agent in the autonomous vehicle and improve driver’s experience by making automation “transparent”. We focus especially on the lane changing task entirely realized by the autonomous vehicle. The aim and the objectives were achieved by a five-steps methodology. Some general principles of transparency have been redefined on the LYONS (2013) model. These principles have been then operationalized by means of Cognitive Work Analysis. Graphical representation of useful information or potentially useful information was defined during creative sessions, by using Augmented Reality that lies at the heart of the LAR project. This information was categorized according to the functions from which it results: information acquisition, information analysis, decision making and action execution. Five interfaces were designed. Each of these interfaces presents information from some of these functions. Therefore, these interfaces corresponded to different transparency configurations more or less high. The validity of transparency principles was tested through an experiment on driving simulator with a sample of 45 participants. In this experiment, some indicators of cognitive activities and User Experience were measured. Data analysis has led to some differences between 5 interfaces. Indeed, the interface with related information to “information acquisition” and “action execution” functions improves the cognitive activities of the human agent. Considering the User Experience, it is the interface with the information related from the 4 functions which provides the best User Experience.
36

Conception d'un accessoire pour l'automatisation du balayage de mesures par spectrométrie

Joly, Maxime 02 February 2024 (has links)
La spectrométrie est utilisée pour étudier la composition chimique de la matière. Elle aide les chercheurs à étudier et comprendre tout ce qui nous entoure. Plusieurs technologies de spectrométrie sont offertes sur le marché, mais elles ne permettent d’effectuer des mesures que sur un échantillon à la fois. Si un chercheur souhaite comparer l’évolution de plusieurs échantillons sur un temps donné dans un environnement précis, aucune technologie offerte présentement sur le marché ne le permet. L’accessoire développé dans le cadre de ce projet de maîtrise a comme objectif d’ajouter un paramètre dimensionnel à la spectrométrie infrarouge à transformée de Fourier (FTIR). Une fente déplacée linéairement sous un cristal à réflectance totale atténuée (ATR) permet de sélectionner précisément la région de l’échantillon à mesurer. L’accessoire complètement automatisé offre une solution compacte, rapide et abordable pour faire des mesures complexes en spectrométrie. Le prototype de l’accessoire a été développé durant ce projet de maîtrise. Ses performances, notamment en ce qui concerne la précision du positionnement de la fente, sont analysées et optimisées. Une simulation du parcours de la lumière dans le cristal ATR permet de reproduire et de comprendre les premières mesures effectuées avec l’accessoire. Elle permet également de définir la précision requise pour soutirer les performances optimales du cristal ATR utilisé. Des recommandations découlant de l’analyse des premières mesures et de la simulation seront prises en compte pour l’optimisation future de l’accessoire. / Spectrometry is used to study the chemical composition of matter. It helps researchers study and understand everything around us. Several spectrometry technologies are available on the market, but they only allow measurements to be taken on one sample at a time. If a researcher wishes to compare the evolution of several samples over a given time in a specific environment, no technology currently available on the market allows it.The accessory developed as part of this master’s project aims to add a dimensional parameter to Fourier transform infrared spectrometry (FTIR). A linearly displaced rectangular aperture placed under an attenuated total reflectance (ATR) crystal allows precise selection of the region of the sample to be measured. The fully automated accessory offers a compact, fast and affordable solution for making complex spectrometry measurements. The accessory prototype was developed during this master’s project. Its performances, in particular regarding the precision of the positioning of the aperture, is analyzed and optimized. A simulation of the path of light in theATR crystal makes it possible to reproduce and understand the first measurements made with the accessory. Italso makes it possible to define the precision required to extract optimum use of the ATR crystal used. Recommendations from the analysis of the first measurements and the simulation will be taken into account forfuture optimization of the accessory
37

Phonetic normalization as a means to improve toxicity detection

Poitras, Charles 13 December 2023 (has links)
À travers le temps et en présence des avancements de la technologie, l'utilisation de cette technologie afin de créer et de maintenir des communautés en ligne est devenue une occurrence journalière. Avec l'augmentation de l'utilisation de ces technologies, une tendance négative peut aussi se faire identifier; il y a une quantité croissante d'utilisateurs ayant des objectifs négatifs qui créent du contenu illicite ou nuisible à ces communautés. Afin de protéger ces communautés, il devient donc nécessaire de modérer les communications des communautés. Bien qu'il serait possible d'engager une équipe de modérateurs, cette équipe devrait constamment grandir afin de pouvoir modérer l'entièreté du contenu. Afin de résoudre ce problème, plusieurs se tournent vers des techniques de modération automatique. Deux exemples de techniques sont les "whitelists" et les "blacklists". Malheureusement, les utilisateurs néfastes peuvent facilement contourner ces techniques à l'aide de techniques subversives. Une des techniques populaires est l'utilisation de substitution où un utilisateur remplace un mot par un équivalent phonétique, ou une combinaison visuellement semblable au mot original. À travers ce mémoire, nous offrons une nouvelle technique de normalisation faisant usage de la phonétique à l'intérieur d'un normalisateur de texte. Ce normalisateur recrée la prononciation et infère le mot réel à partir de cette normalisation, l'objectif étant de retirer les signes de subversion. Une fois normalisé, un message peut ensuite être passé aux systèmes de classification. / Over time, the presence of online communities and the use of electronic means of communication have and keep becoming more prevalent. With this increase, the presence of users making use of those means to spread and create harmful, or sometimes known as toxic, content has also increased. In order to protect those communities, the need for moderation becomes a critical matter. While it could be possible to hire a team of moderators, this team would have to be ever-growing, and as such, most turn to automatic means of detection as a step in their moderation process. Examples of such automatic means would be the use of methods such as blacklists and whitelists, but those methods can easily be subverted by harmful users. A common subversion technique is the substitution of a complete word by a phonetically similar word, or combination of letters that resembles the intended word. This thesis aims to offer a novel approach to moderation specifically targeting phonetic substitutions by creating a normalizer capable of identifying how a word should be read and inferring the obfuscated word, nullifying the effects of subversion. Once normalized phonetically, the messages are then sent to existing means of classification for automatic moderation.
38

Design of an automated production environment for the prefabrication of timber frame walls

Lachance, Emilie 13 December 2023 (has links)
Titre de l'écran-titre (visionné le 26 avril 2023) / L'industrie de la construction est en changement de paradigme. Sur les marchés, la demande ne cesse de croître, alors que l'offre ne peut répondre à la demande. De nouvelles méthodes et techniques sont utilisées pour contrer la pénurie de main d'œuvre, la crise climatique et la faible productivité. Certaines de ces méthodes impliquent la préfabrication de modules et de panneaux en bois dans un environnement de production contrôlé. Alors que la construction de bâtiments évolue en processus manufacturiers, le taux de productivité demeure faible. Ceci est en partie dû au faible taux d'adoption de technologies et d'automatisation dans les lignes de production. Ce projet de maîtrise se concentre sur le processus manufacturier de la préfabrication de murs à ossature légère. Une revue de littérature fait état de l'art sur le niveau d'automatisation, les types d'environnement de production et les outils technologiques impliqués dans la préfabrication de murs à ossature légère. Un cas d'études impliquant une entreprise qui a développé un système constructif pour les murs à ossature légère est étudié en détail. Des aménagements de production allant de peu a très automatisés sont conceptualisés pour la préfabrication de murs à ossature légère. Les différents aménagements sont testés dans un modèle de simulation et l'impact sur les différents indicateurs de performance est observé. Une analyse économique est effectuée sur les différents aménagements proposés et une méthodologie d'implantation est suggérée. Les indicateurs de performance mis en place démontrent que l'aménagement de production impliquant une cellule robotisée avec un haut niveau d'automatisation projette des résultats de performance intéressants. / The construction industry faces a paradigm shift. On the markets, the demand is rising, while the supply cannot satisfy the demand. New methods and techniques are being used to overcome the labour crisis, climate crisis, and productivity crisis. Some of these methods include the prefabrication of modules and wood panels in a factory. Although the construction of buildings is evolving into a manufacturing process, the prefabrication sector still lacks productivity and efficiency. This is mainly due to the low adoption of automation and technologies in the production lines. More specifically, this master's thesis focuses on the production processes of prefabricated timber frame walls. First, a literature review is done to assess the level of automation, the types of production environment, and technological tools involved in the prefabrication of timber frame walls. Thereafter, a case study involving a company who has developed a fully prefabricated timber frame wall system is studied in detail. The focus is on the production environment and the level of automation needed regarding several performance indicators for the studied system. These different layouts with different automation levels are tested in a simulation model to see their impact on several performance indicators. An economic analysis is done on the different layouts and a methodology of implementation is suggested. Results show that the most performing scenario involve a robotic cell with the highest level of automation.
39

Essays on technology, institutions, and productivity / Essais sur la technologie, les institutions, et la productivité

Presidente, Giorgio 06 December 2016 (has links)
Utilisant des données sur les expéditions de robots industriels, ce document constate que les secteurs volatils sont automatisés de façon disproportionnée dans les pays avec des règles strictes sur le licenciement. L'idée derrière le résultat empirique est que contrairement aux travailleurs humains, les entreprises peuvent disposer librement des robots, tout comme avec tout autre bien de capital. Puisque les droits des robots ne sont pas protégés par la loi, ils fournissent des services de main d’œuvre à volonté. L'incitation à l'automatisation apportée par la réglementation est plus forte dans les secteurs volatils, où l'incertitude sur les conditions d'affaires augmente les exigences de flexibilité des entreprises. Mes estimations prédisent que dans les secteurs incertains, le pays le plus réglementé (l'Italie) devrait être deux fois plus automatisé que le plus réglementé (États-Unis). Les données montrent que le nombre de robots par employé en Italie est 90% plus élevé qu'aux États-Unis. La stratégie d'identification consiste à exploiter le calendrier différent dans les réformes du travail entre les pays. L'identification provient de l'effet avant-après sur l'investissement sectoriel dans les robots dans les pays réformés (le "groupe de traitement"), vis-à-vis de l'effet avant-après dans les pays où l'EPL n'a pas changé (le "groupe témoin"). Ce document explique pourquoi les entreprises investissent dans l'automatisation. Contrairement à la sagesse conventionnelle, les robots n'augmentent pas la productivité parce qu'ils sont meilleurs ou plus rapides à faire les choses, mais plutôt parce qu'ils augmentent l'efficacité de la répartition. Le lien entre réglementation et automatisation implique que la politique du marché du travail peut être utilisée pour atténuer l'effet perturbateur de la technologie. / Using data on shipments of industrial robots, this paper finds that volatile sectors are disproportionally automated in countries with strict rules on employment dismissal. The idea behind the empirical result is that unlike for human workers, firms can freely dispose of robots, just as with any other capital good. Since robot’s rights are not protected by law, they deliver labor services at will. The incentive to automate induced by regulation is stronger in volatile sectors, where uncertainty about business conditions increase the flexibility requirements of firms. My estimates predict that in uncertain sectors, the most regulated country (Italy) should be twice as automated as the least regulated one (the United States). Data show that the number of robots per employee in Italy is 90% higher than in the United States. The identification strategy consists in exploiting different timing in labor re-forms across countries. Identification comes from the before-after effect on sectorial investment in robots in reformed countries (the \treatment group"), vis-a-vis the before-after effect in countries where EPL did not change (the \control group").This paper sheds light on why firms invest in automation. In contrast to conventional wisdom, robots do not increase productivity because they are better or faster at doing things, but rather because they increase allocative efficiency. The link between regulation and automation implies that labor market policy can be used to mitigate the disruptive effect of technology.
40

Identification automatique des formes de relief par une approche topologique : les canyons sous-marins de l'estuaire du Saint-Laurent

Cortes Murcia, Andres 18 September 2024 (has links)
Une forme de relief est une région reconnaissable par sa forme et ses éléments saillants. L'approche qui sera ici développée vise à automatiser l’identification de formes du relief et sera appliquée aux canyons sous-marins. Les canyons sont des vallées encaissées et incisées dans le fond marin de la pente continentale. Ils représentent les principaux conduits pour le transport des sédiments en provenance du plateau continental vers la plaine abyssale. Habituellement, l’identification automatisée des formes de relief est réalisée par des traitements d’images basés sur le pixel. Les méthodes traditionnelles exigent la segmentation et la classification d’images. Ces approches calculent des descripteurs locaux tels que la courbure et dépendent de paramètres de seuil fixés par l’utilisateur. D’ailleurs, ce type de classification d’image peut omettre les caractéristiques photo-interprétatives. En général, les photo-interpréteurs reconnaissent des canyons par leur forme globale (ils sont étroits, allongés et ont des pentes raides) et leur position (ils traversent la pente de manière orthogonale), étant observés autour d’une structure saillante qui correspond à la ligne la plus basse ou talweg. Pour pallier cette difficulté, nous travaillons sur une structure topologique et des méthodes basées sur des approches objets permettant d’extraire les éléments saillants des formes de relief. Ainsi, notre structure de base est illustrée sur un réseau de triangles irréguliers (TIN) généré à partir de données capturées par un sonar multifaisceaux dans l’estuaire du Saint Laurent. À partir du TIN, nous extrayons le réseau de surface pour extraire les éléments structurants des canyons. Ensuite, l’extraction de la ligne du fond du canyon se fait par le regroupement et l’agrégation de segments formant le squelette des canyons. En troisième lieu se réalise la caractérisation des polygones qui représentent les fonds des canyons. Finalement, les résultats sont validés par rapport à une classification fournie par des géomorphologues. / Submarine canyons are steep valleys incised into the continental slope. They are the principal channels for sediment flows from the continental shelf to the sea floor. Their importance is primordial for submarine ecosystems since they act as transportation channels for nutrients and organic substances. In addition, submarine canyons are relevant features for geomorphologists because they can explain the origin and evolution of the marine landscape. Submarine canyons’ extraction involves the automatic identification of submarines elements through geomorphometric approaches or quantitative surface analysis. Traditional methods require image segmentation and classification. These approaches compute discrete local descriptors such as the curvature and depend on threshold parameters chosen by the user. Furthermore, image classification can omit global photo-interpretative characteristics. In general, photo-interpreters identify canyons by their overall shape (narrow, elongated, steep slopes) and position (running across the continental slope in a straight line), observed around salient thalwegs. We move from pixel classification to an object-oriented approach built on a topological data structure. The surface network is a graph where critical points such as pits and peaks are connected by ridges and thalwegs. Its extraction does not require any parameter. Relevant thalwegs are selected by simplifying the surface network. Simplification parameters are not set locally at pixel level but at the structure level. The valley floor is computed around each thalweg and used to classify canyons and other channels. The method is illustrated on a triangulated irregular network generated from multibeam sounding data from the St-Lawrence estuary (Canada). Results were validated against a manual classification performed by geomorphologists.

Page generated in 0.0889 seconds