• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1489
  • 473
  • 437
  • 372
  • 104
  • 74
  • 68
  • 34
  • 33
  • 32
  • 28
  • 26
  • 21
  • 18
  • 11
  • Tagged with
  • 3676
  • 1096
  • 750
  • 488
  • 460
  • 450
  • 419
  • 390
  • 389
  • 348
  • 346
  • 328
  • 321
  • 317
  • 316
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Gränslöshet i arbetslivet - En undersökning om hur fastighetsmäklare upplever och hanterar det gränslösa arbetet

Johansson, Emma, Waller, Agnes January 2019 (has links)
Technological development has made working conditions more digital in today’s society, where the use of wireless aids has removed boundaries creating a more flexible working environment. Individuals now have the ability to decide for themselves about when, where and how ones work should be performed. The purpose of this study is to obtain an insight on how work without boundaries is experienced by individuals. Previous research links work with less boundaries to a more sustainable lifestyle where the individual has the ability to easier separate work from leisure time. This is however highly dependent on work characteristics which determines the possibility of flexible working conditions. This study has by the use of qualitative interviews aimed focus on real estate brokers, an occupation which has work characteristics that are considered to be less determined by boundaries in terms of working hours and income. This study highlights strategies on how real estate brokers can separate work life from private life, or choose to combine the two. Finally, the study has identified a set of characteristics which are important to the individual when it comes to managing work without boundaries. / Samhällets teknologiska utveckling har möjliggjort en ökad gränslöshet i arbetslivet och dagligen används portabla hjälpmedel som bidrar till arbetets flexibilitet. Den enskilda individen får i större utsträckning själv bestämma när, var och hur arbetet ska utföras. I denna studie undersöks hur individer kan uppleva och hantera gränslöshet med syftet att få en djupare förståelse för fenomenet gränslöst arbete. Enligt tidigare forskning är upplevelsen av gränslöst arbete kopplad till möjligheten för en fritid som inte inkluderar arbetet, detta för att möjliggöra återhämtning och för att bibehålla välmående i längden. Beroende på yrkets karaktär är detta dock inte alltid möjligt. Studien har genom kvalitativa intervjuer fokuserat på en grupp fastighetsmäklare vars yrke har en tydlig gränslöshet där allt från arbetstid till inkomst varierar. Studien synliggör även strategier som innefattar att individen antingen kan välja att kombinera arbetslivet med privatlivet eller att se dem som två separata sfärer utan koppling till varandra. Vidare har olika karaktärsdrag identifierats som tycks vara av stor vikt för både hanteringen och upplevelsen av det gränslösa arbetet.
372

Segmentation générique et classification dans des images 3D+T / Generic segmentation and classification in 3D+T images

Gul Mohammed, Jaza 17 June 2014 (has links)
La segmentation est le principal problème de l'analyse d'image qui concerne l'extraction de l'information quantitative de l'image. La segmentation d'image partitionne une image en un nombre de régions separées du fond qui pourraient correspondre aux objets dans l'image. La technique la plus simple de segmentation est le seuillage, en considérant par exemple un seuil au dessous duquel les pixels/voxels sont considérés comme du fond. Le problème du seuillage est de trouver un seuil global; si le seuil est très bas, les objets se touchent et cela nécessite un post traitement, en revanche pour un seuil très haut, les objets ayant des intensités faibles seront supprimés. L'information qualitative peut être extraite directement sur l'image segmentée. Or, afin de donner plus de sens aux objets, les objets détéctés peuvent être assignés à des classes ou clusters d'objets prédefinis. Dans cette thèse, je présente une nouvelle contribution dans le domaine de l'informatique appliquée à la biologie. La contribution « informatique » c'est la nouvelle technique d'apprentisage supervisé (machine leaning) afin d'obtenir une nouvelle segmentation et classification sans paramètres. La contribution « biologique » c'est cette nouvelle technique appliquée à la segmentation et la classification de noyaux de differents embryons. Dans cette thèse, je présente une méthode automatique de segmentation et classification appliquée à l'étude de cycle cellulaire de noyaux dans l'embryon pour des images de microscopie 3D/4D. Ce qui permet aux biologistes d'étudier comment les cellules s'organisent spatialement et temporellement à l'intérieur de l'embryon, et de quantifier l'effet des perturbations génétiques et des médicaments. Dans cette thèse, deux nouvelles techniques de segmentation supervisée se basant sur l'apprentissage d'objects prédéfinis sont présentées. La première technique supervisée de segmentation dévéloppée est la composition de machine learning et de seuillage iteratif (seuillage montant). Pour chaque seuil, les objets détéctés passent par la classification. À la fin du seuillage, afin de trouver le meilleur seuil pour chaque objet, le seuil qui donne la plus haute probablité d' appartenance dans la classe stabilisée est pris. Cette technique a donné des résultats relativement bons sur 3 modèles différents d'image malgré la présence de variations d'intensité temporelle et spatiale. Dans la même prespective, une autre technique se basant sur une croissance de region (watershes descendant) a été développée pour surmonter les cas où noyaux de cellule se touchent et présentent des intensités inhomogènes. La technique est basée sur la croissance des région à partir des maximum locaux. Une fois que les régions se réunissent, des combinaisons de régions sont créées et la combinaision qui à la plus haute probablité d' appartenance aux classes d'objets prédéfinis. L'originalité de cette thèse est ; 1- la combinaision de segmentation et classification dans un processus unique. 2- la généricité du modèle de segmentation et classification étant applicable à des images de modèles biologiques différents. 3- l' fait de ne pas de necessité de réglage de paramètres ( Parameter-free ). / Image segmentation, being the main challenge in image analysis that deals with extraction of quantitative information. Segmentation partitions an image into a number of separate regions which might correspond to objects in the image. The simplest technique is thresholding, by considering a threshold below which pixels/voxels are assumed as background. Finding optimal threshold is critical; if the threshold is very low, the observed nuclei in fluorescent image are touching and requires a post-processing, on the other hand, with very high threshold, nuclei with low intensities will be deleted. Afterwards, qualitative information can be extracted directly from segmented image. However, in order to give more meaning to detected objects, these objects can be assigned to predefined classes. This challenge is carried out in this thesis through an automatic method of segmentation and classification which was applied to the study of cell cycle of nuclei in 3D/4D embryo microscopy images. Our method ensures optimal threshold for each object. In this thesis, we present two new segmentation techniques which are based on supervised learning of predefined classes of objects. The first technique of supervised segmentation is realized by combining machine learning and iterative thresholding (bottom-up thresholding). For each threshold, the detected objects will be classified. At the end of thresholding, to find optimal threshold for each object, the threshold that gives the highest probability of belonging in the stabilized class is taken. This technique was tested on three different datasets and gave good results despite the presence of temporal and spatial variations of intensity. In the same perspective, another technique based on a region-growing (top-down thresholding) approach was developed to overcome overlapping and inhomogeneous cell nuclei problems. This technique is based on region-growth from the local maximum. Once the regions meet, combinations of regions are created and combination that gives the highest membership probability to predefined classes of object is retained. The originality of this work is that segmen- tation and classification are performed simultaneously. The program is also generic and applicable to wide biological datasets, without any parameter (parameter-free).
373

Approche générique appliquée à l'indexation audio par modélisation non supervisée / Unified data-driven approach for audio indexing, retrieval and recognition

Khemiri, Houssemeddine 27 September 2013 (has links)
La quantité de données audio disponibles, telles que les enregistrements radio, la musique, les podcasts et les publicités est en augmentation constance. Par contre, il n'y a pas beaucoup d'outils de classification et d'indexation, qui permettent aux utilisateurs de naviguer et retrouver des documents audio. Dans ces systèmes, les données audio sont traitées différemment en fonction des applications. La diversité de ces techniques d'indexation rend inadéquat le traitement simultané de flux audio où différents types de contenu audio coexistent. Dans cette thèse, nous présentons nos travaux sur l'extension de l'approche ALISP, développé initialement pour la parole, comme une méthode générique pour l'indexation et l'identification audio. La particularité des outils ALISP est qu'aucune transcription textuelle ou annotation manuelle est nécessaire lors de l'étape d'apprentissage. Le principe de cet outil est de transformer les données audio en une séquence de symboles. Ces symboles peuvent être utilisés à des fins d'indexation. La principale contribution de cette thèse est l'exploitation de l'approche ALISP comme une méthode générique pour l'indexation audio. Ce système est composé de trois modules: acquisition et modélisation des unités ALISP d'une manière non supervisée, transcription ALISP des données audio et comparaison des symboles ALISP avec la technique BLAST et la distance de Levenshtein. Les évaluations du système proposé pour les différentes applications sont effectuées avec la base de données YACAST et avec d'autres corpus disponibles publiquement pour différentes tâche de l'indexation audio. / The amount of available audio data, such as broadcast news archives, radio recordings, music and songs collections, podcasts or various internet media is constantly increasing. Therefore many audio indexing techniques are proposed in order to help users to browse audio documents. Nevertheless, these methods are developed for a specific audio content which makes them unsuitable to simultaneously treat audio streams where different types of audio document coexist. In this thesis we report our recent efforts in extending the ALISP approach developed for speech as a generic method for audio indexing, retrieval and recognition. The particularity of ALISP tools is that no textual transcriptions are needed during the learning step. Any input speech data is transformed into a sequence of arbitrary symbols. These symbols can be used for indexing purposes. The main contribution of this thesis is the exploitation of the ALISP approach as a generic method for audio indexing. The proposed system consists of three steps; an unsupervised training to model and acquire the ALISP HMM models, ALISP segmentation of audio data using the ALISP HMM models and a comparison of ALISP symbols using the BLAST algorithm and Levenshtein distance. The evaluations of the proposed systems are done on the YACAST and other publicly available corpora for several tasks of audio indexing.
374

Segmentation de maillages 3D par l'exemple / Segmentation by example of 3D meshes

Elghoul, Esma 29 September 2014 (has links)
Cette thèse présente une méthode de segmentation de modèles 3D en parties significatives ou fonctionnelles. La segmentation s’effectue par "transfert" d’une segmentation exemple : la segmentation d’un modèle est calculée en transférant les segments d’une segmentation exemple d’un objet appartenant à la même classe de modèles 3D. Pour ce faire, nous avons adapté et étendu la méthode de segmentation par les marches aléatoires et transformé notre problème en un problème de localisation et mise en correspondance de faces germes. Notre méthode comporte quatre étapes fondamentales : la mise en correspondance entre le modèle exemple et le modèle cible, la localisation automatique de germes sur le modèle cible pour initialiser les régions, le calcul des segments du modèle cible et l’amélioration de leurs frontières. En constatant que les critères de similarité diffèrent selon que les objets sont de type rigide (chaises, avions,…) ou de type articulé (humains, quadrupèdes,…), nous décomposons notre approche en deux. La première dédiée aux objets rigides, où la mise en correspondance est basée sur le calcul des transformations rigides afin d’aligner au mieux les parties significatives des deux objets comparés. La deuxième dédiée aux modèles articulés, où la mise en correspondance des parties fonctionnelles, présentant des variations de poses plus importantes, est basée sur des squelettes calculés via des diagrammes de Reeb. Nous montrons à travers des évaluations qualitatives et quantitatives que notre méthode obtient des résultats meilleurs que les techniques de segmentation individuelle et comparables aux techniques de co-segmentation avec un temps de calcul nettement inférieur. / In this dissertation, we present a new method to segment 3D models into their functional parts. The segmentation is performed by a transfer approach: a semantic-oriented segmentation of an object is calculated using a pre-segmented example model from the same class (chairs, humans, etc.). To this end, we adapted and extended the random walk segmentation method which allowed us to transform our problem into a problem of locating and matching seed faces. Our method consists of four fundamental steps: establishing correspondences between the example and the target model, localizing seeds to initialize regions in the target model, computing the segments and refining their boundaries in the target model. We decomposed our approach in two, taking into account similarity criteria which differ regarding the object type (rigid vs. articulated). The first approach is dedicated to rigid objects (chairs, airplanes, etc.), where the matching is based on rigid transformations to determine the best alignment between the functional parts of the compared objects. The second one focused on articulated objects (humans, quadrupeds, etc.), where coarse topological shape attributes are used in a skeleton-based approach to cover larger pose variations when computing correspondences between functional parts. We show through qualitative and quantitative evaluations that our method improves upon individual segmentation techniques and obtains results that are close to the co-segmentation techniques results with an important calculation time reduction.
375

Études et conception d'algorithmes de reconstruction 3D sur tablettes : génération automatique de modèles 3D éditables de bâtiments existants / Study and Conception of 3D Reconstruction Algorithms on Tablets : Automatic Generation of 3D Editable Models of Existing Buildings

Arnaud, Adrien 03 December 2018 (has links)
L'objectif de ces travaux de thèse consiste à mettre en place des solutions algorithmiques permettant de reconstruire un modèle 3D éditable d'un environnement intérieur à l'aide d'une tablette équipée d'un capteur de profondeur.Ces travaux s'inscrivent dans le contexte de la rénovation d'intérieur. Les normes Européennes poussent à la rénovation énergétique et à la modélisation 3D des bâtiments existants. Des outils professionnels utilisant des capteurs de type LIDAR permettent de reconstruire des nuages de points de très grande qualité, mais sont coûteux et longs à mettre en œuvre. De plus, il est très difficile d'identifier automatiquement les constituants d'un bâtiment pour en exporter un modèle 3D éditable complet.Dans le cadre de la rénovation d’intérieur, il n'est pas nécessaire de disposer des informations sur l'ensemble du bâtiment, seules les principales dimensions et surfaces sont nécessaires. Nous pouvons alors envisager d'automatiser complètement le processus de modélisation 3D.La mise sur le marché de capteurs de profondeur intégrables sur tablettes, et l'augmentation des capacités de calcul de ces dernières nous permet d'envisager l'adaptation d'algorithmes de reconstruction 3D classiques à ces supports.Au cours de ces travaux, nous avons envisagé deux approches de reconstruction 3D différentes. La première approche s'appuie sur des méthodes de l'état de l'art. Elle consiste à générer un maillage 3D d'un environnement intérieur en temps réel sur tablette, puis d'utiliser ce maillage 3D pour identifier la structure globale du bâtiment (murs, portes et fenêtres). La deuxième approche envisagée consiste à générer un modèle 3D éditable en temps réel, sans passer par un maillage intermédiaire. De cette manière beaucoup plus d'informations sont disponibles pour pouvoir détecter les éléments structuraux. Nous avons en effet à chaque instant donné un nuage de points complet ainsi que l'image couleur correspondante. Nous avons dans un premier temps mis en place deux algorithmes de segmentation planaire en temps réel. Puis, nous avons mis en place un algorithme d'analyse de ces plans permettant d'identifier deux plans identiques sur plusieurs prises de vue différentes. Nous sommes alors capables d'identifier les différents murs contenus dans l'environnement capturé, et nous pouvons mettre à jour leurs informations géométriques en temps réel. / This thesis works consisted to implement algorithmic solutions to reconstruct an editable 3D model of an indoor environment using a tablet equipped with a depth sensor.These works are part of the context of interior renovation. European standards push for energy renovation and 3D modeling of existing buildings. Professional tools using LIDAR-type sensors make it possible to reconstruct high-quality point clouds, but are costly and time-consuming to implement. In addition, it is very difficult to automatically identify the constituents of a building to export a complete editable 3D model.As part of the interior renovation, it is not necessary to have information on the whole building, only the main dimensions and surfaces are necessary. We can then consider completely automating the 3D modeling process.The recent development of depth sensors that can be integrated on tablets, and the improvement of the tablets computation capabilities allows us to consider the adaptation of classical 3D reconstruction algorithms to these supports.During this work, we considered two different 3D reconstruction approaches. The first approach is based on state-of-the-art methods. It consists of generating a 3D mesh of an interior environment in real time on a tablet, then using this 3D mesh to identify the overall structure of the building (walls, doors and windows). The second approach envisaged is to generate a 3D editable model in real time, without passing through an intermediate mesh. In this way much more information is available to be able to detect the structural elements. We have in fact at each given time a complete point cloud as well as the corresponding color image. In a first time we have set up two planar segmentation algorithms in real time. Then, we set up an analysis algorithm of these plans to identify two identical planes on different captures. We are then able to identify the different walls contained in the captured environment, and we can update their geometric information in real-time.
376

Etude du passage à l'échelle des algorithmes de segmentation et de classification en télédétection pour le traitement de volumes massifs de données / Study of the scalability of segmentation and classification algorithms to process massive datasets for remote sensing applications

Lassalle, Pierre 06 November 2015 (has links)
Les récentes missions spatiales d'observation de la Terre fourniront des images optiques à très hautes résolutions spatiale, spectrale et temporelle générant des volumes de données massifs. L'objectif de cette thèse est d'apporter de nouvelles solutions pour le traitement efficace de grands volumes de données ne pouvant être contenus en mémoire. Il s'agit de lever les verrous scientifiques en développant des algorithmes efficaces qui garantissent des résultats identiques à ceux obtenus dans le cas où la mémoire ne serait pas une contrainte. La première partie de la thèse se consacre à l'adaptation des méthodes de segmentation pour le traitement d'images volumineuses. Une solution naïve consiste à découper l'image en tuiles et à appliquer la segmentation sur chaque tuile séparément. Le résultat final est reconstitué en regroupant les tuiles segmentées. Cette stratégie est sous-optimale car elle entraîne des modifications par rapport au résultat obtenu lors de la segmentation de l'image sans découpage. Une étude des méthodes de segmentation par fusion de régions a conduit au développement d'une solution permettant la segmentation d'images de taille arbitraire tout en garantissant un résultat identique à celui obtenu avec la méthode initiale sans la contrainte de la mémoire. La faisabilité de la solution a été vérifiée avec la segmentation de plusieurs scènes Pléiades à très haute résolution avec des tailles en mémoire de l'ordre de quelques gigaoctets. La seconde partie de la thèse se consacre à l'étude de l'apprentissage supervisé lorsque les données ne peuvent être contenues en mémoire. Dans le cadre de cette thèse, nous nous focalisons sur l'algorithme des forêts aléatoires qui consiste à établir un comité d'arbres de décision. Plusieurs solutions ont été proposées dans la littérature pour adapter cet algorithme lorsque les données d'apprentissage ne peuvent être stockées en mémoire. Cependant, ces solutions restent soit approximatives, car la contrainte de la mémoire réduit à chaque fois la visibilité de l'algorithme à une portion des données d'apprentissage, soit peu efficaces, car elles nécessitent de nombreux accès en lecture et écriture sur le disque dur. Pour pallier ces problèmes, nous proposons une solution exacte et efficace garantissant une visibilité de l'algorithme sur l'ensemble des données d'apprentissage. L'exactitude des résultats est vérifiée et la solution est testée avec succès sur de grands volumes de données d'apprentissage. / Recent Earth observation spatial missions will provide very high spectral, spatial and temporal resolution optical images, which represents a huge amount of data. The objective of this research is to propose innovative algorithms to process efficiently such massive datasets on resource-constrained devices. Developing new efficient algorithms which ensure identical results to those obtained without the memory limitation represents a challenging task. The first part of this thesis focuses on the adaptation of segmentation algorithms when the input satellite image can not be stored in the main memory. A naive solution consists of dividing the input image into tiles and segment each tile independently. The final result is built by grouping the segmented tiles together. Applying this strategy turns out to be suboptimal since it modifies the resulting segments compared to those obtained from the segmentation without tiling. A deep study of region-merging segmentation algorithms allows us to develop a tile-based scalable solution to segment images of arbitrary size while ensuring identical results to those obtained without tiling. The feasibility of the solution is shown by segmenting different very high resolution Pléiades images requiring gigabytes to be stored in the memory. The second part of the thesis focuses on supervised learning methods when the training dataset can not be stored in the memory. In the frame of the thesis, we decide to study the Random Forest algorithm which consists of building an ensemble of decision trees. Several solutions have been proposed to adapt this algorithm for processing massive training datasets, but they remain either approximative because of the limitation of memory imposes a reduced visibility of the algorithm on a small portion of the training datasets or inefficient because they need a lot of read and write access on the hard disk. To solve those issues, we propose an exact solution ensuring the visibility of the algorithm on the whole training dataset while minimizing read and write access on the hard disk. The running time is analysed by varying the dimension of the training dataset and shows that our proposed solution is very competitive with other existing solutions and can be used to process hundreds of gigabytes of data.
377

Deep Learning based 3D Image Segmentation Methods and Applications

Chen, Yani 05 June 2019 (has links)
No description available.
378

Multi Planar Conditional Generative Adversarial Networks

Somosmita Mitra (11197152) 30 July 2021 (has links)
<div>Brain tumor sub region segmentation is a challenging problem in Magnetic Resonance imaging. The tumor regions tend to suffer from lack of homogeneity, textural differences, variable location, and their ability to proliferate into surrounding tissue. </div><div> The segmentation task thus requires an algorithm which can be indifferent to such influences and robust to external interference. In this work we propose a conditional generative adversarial network which learns off multiple planes of reference. Using this learning, we evaluate the quality of the segmentation and back propagate the loss for improving the learning. The results produced by the network show competitive quality in both the training and the testing data-set.</div><div><br></div>
379

Performance Evaluation of Lumen Segmentation in Ultrasound Images

Kadeby, Alexander January 2023 (has links)
Automatic segmentation of the lumen of carotid arteries in ultrasound images is a starting step in providing preventive care for patients with atherosclerosis. To perform the segmentation this paper introduces a model utilizing a threshold algorithm. The model was tested with two different threshold algorithms, Otsu and Sauvola, then scored against professionally drawn masks. The scores were calculated with Dice and Jaccard-Needham as well as specificity, recall, and f1-score. The results showed promising mean and median similarity between the predictions and masks. Future work includes either optimizing the current model or augmenting it to give an even better ground to continue the work on providing preventive care for atherosclerosis patients.
380

Pixel-level video understanding with efficient deep models

Hu, Ping 02 February 2024 (has links)
The ability to understand videos at the level of pixels plays a key role in a wide range of computer vision applications. For example, a robot or autonomous vehicle relies on classifying each pixel in the video stream into semantic categories to holistically understand the surrounding environment, and video editing software needs to exploit the spatiotemporal context of video pixels to generate various visual effects. Despite the great progress of Deep Learning (DL) techniques, applying DL-based vision models to process video pixels remains practically challenging, due to the high volume of video data and the compute-intensive design of DL approaches. In this thesis, we aim to design efficient and robust deep models for pixel-level video understanding of high-level semantics, mid-level grouping, and low-level interpolation. Toward this goal, in Part I, we address the semantic analysis of video pixels with the task of Video Semantic Segmentation (VSS), which aims to assign pixel-level semantic labels to video frames. We introduce methods that utilize temporal redundancy and context to efficiently recognize video pixels without sacrificing performance. Extensive experiments on various datasets demonstrate our methods' effectiveness and efficiency on both common GPUs and edge devices. Then, in Part II, we show that pixel-level motion patterns help to differentiate video objects from their background. In particular, we propose a fast and efficient contour-based algorithm to group and separate motion patterns for video objects. Furthermore, we present learning-based models to solve the tracking of objects across frames. We show that by explicitly separating the object segmentation and object tracking problems, our framework achieves efficiency during both training and inference. Finally, in Part III, we study the temporal interpolation of pixels given their spatial-temporal context. We show that intermediate video frames can be inferred via interpolation in a very efficient way, by introducing the many-to-many splatting framework that can quickly warp and fuse pixels at any number of arbitrary intermediate time steps. We also propose a dynamic refinement mechanism to further improve the interpolation quality by reducing redundant computation. Evaluation on various types of datasets shows that our method can interpolate videos with state-of-the-art quality and efficiency. To summarize, we discuss and propose efficient pipelines for pixel-level video understanding tasks across high-level semantics, mid-level grouping, and low-level interpolation. The proposed models can contribute to tackling a wide range of real-world video perception and understanding problems in future research.

Page generated in 0.1071 seconds