Spelling suggestions: "subject:"highdefinition"" "subject:"designdefinition""
41 |
Editing the independent, digital feature film, mosaicMcMillan, Matthew Christopher January 2007 (has links)
The production of the independent, digital feature film titled Mosaic was performed on a very low budget. The design and implementation of the post-production of the film required consideration of budgetary constraints, and solutions to these constraints that would still allow the creative freedom of the editor and the director. The technical design was based around digital filmmaking technology. The choice of this technology influenced how the editor was able to address aesthetic and technical challenges.
|
42 |
Optimisation du codage HEVC par des moyens de pré-analyse et/ou pré-codage du contenu / HEVC encoder optimization with pre-analysis and/or pre-encoding of the video contentDhollande, Nicolas 21 April 2016 (has links)
La compression vidéo HEVC standardisée en 2013 offre des gains de compression dépassant les 50% par rapport au standard de compression précédent MPEG4-AVC/H.264. Ces gains de compression se paient par une augmentation très importante de la complexité de codage. Si on ajoute à cela l’augmentation de complexité générée par l’accroissement de résolution et de fréquence image du signal vidéo d’entrée pour passer de la Haute Définition (HD) à l’Ultra Haute Définition (UHD), on comprend vite l’intérêt des techniques de réduction de complexité pour le développement de codeurs économiquement viables. En premier lieu, un effort particulier a été réalisé pour réduire la complexité des images Intra. Nous proposons une méthode d'inférence des modes de codage à partir d'un pré-codage d'une version réduite en HD de la vidéo UHD. Ensuite, nous proposons une méthode de partitionnement rapide basée sur la pré-analyse du contenu. La première méthode offre une réduction de complexité d'un facteur 3 et la deuxième, d'un facteur 6, contre une perte de compression proche de 5%. En second lieu, nous avons traité le codage des images Inter. En mettant en œuvre une solution d'inférence des modes de codage UHD à partir d'un pré-codage au format HD, la complexité de codage est réduite d’un facteur 3 en considérant les 2 flux produits et d’un facteur 9.2 sur le seul flux UHD, pour une perte en compression proche de 3%. Appliqué à une configuration de codage proche d'un système réellement déployé, l'apport de notre algorithme reste intéressant puisqu'il réduit la complexité de codage du flux UHD d’un facteur proche de 2 pour une perte de compression limitée à 4%. Les stratégies de réduction de complexité mises en œuvre au cours de cette thèse pour le codage Intra et Inter offrent des perspectives intéressantes pour le développement de codeurs HEVC UHD plus économes en ressources de calculs. Elles sont particulièrement adaptées au domaine de la WebTV/OTT qui prend une part croissante dans la diffusion de la vidéo et pour lequel le signal vidéo est codé à des résolutions multiples pour adresser des réseaux et des terminaux de capacités variées. / The High Efficiency Video Coding (HEVC) standard was released in 2013 which reduced network bandwidth by a factor of 2 compared to the prior standard H.264/AVC. These gains are achieved by a very significant increase in the encoding complexity. Especially with the industrial demand to shift in format from High Definition (HD) to Ultra High Definition (UHD), one can understand the relevance of complexity reduction techniques to develop cost-effective encoders. In our first contribution, we attempted new strategies to reduce the encoding complexity of Intra-pictures. We proposed a method with inference rules on the coding modes from the modes obtained with pre-encoding of the UHD video down-sampled in HD. We, then, proposed a fast partitioning method based on a pre-analysis of the content. The first method reduced the complexity by a factor of 3x and the second one, by a factor of 6, with a loss of compression efficiency of 5%. As a second contribution, we adressed the Inter-pictures. By implementing inference rules in the UHD encoder, from a HD pre-encoding pass, the encoding complexity is reduced by a factor of 3x when both HD and UHD encodings are considered, and by 9.2x on just the UHD encoding, with a loss of compression efficiency of 3%. Combined with an encoding configuration imitating a real system, our approach reduces the complexity by a factor of close to 2x with 4% of loss. These strategies built during this thesis offer encouraging prospects for implementation of low complexity HEVC UHD encoders. They are fully adapted to the WebTV/OTT segment that is playing a growing part in the video delivery, in which the video signal is encoded with different resolution to reach heterogeneous devices and network capacities.
|
43 |
Digital-high definition television servicing curriculum for Santa Ana Community CollegeSchmidt, David Glenn 01 January 2002 (has links)
The purpose of this project was to develop a semester length community college curriculum for a course in the theory and servicing of digital-high definition television for the students in the service technology field of electronics at Santa Ana Community College in Santa Ana, California. Additionally, it is designed with the current electronic service industry in mind.
|
44 |
Application of NOMA for Mobile High Definition ImagesDanda, Aishwarya Reddy, Chama, Naga Manikanta January 2021 (has links)
The telecommunications technology has been developed tremendously as there has been an ever-increasing demand for more speed and reliability. The enormous increase in the number of smart phones and other data consuming devices, combined with the development of enhanced multimedia applications has resulted in a dramatic increase in the volume of mobile data traffic. In order to accommodate the growing needs, it is required to utilise the spectrum efficiently. The design of radio access technology plays an important role in the aspect of system performance. These radio access technologies are typically characterised by the multiple-access techniques used. Non-Orthogonal Multiple Access (NOMA) is a multiple access scheme proposed for 5G and it utilises the power domain which was not sufficiently utilised in the previous systems. This thesis work is mainly focused on the performance analysis of the NOMA technique in mobile media (images). This analysis is achieved by transmitting a high definition image at various power levels to two users who are located at two different distances from the base station. The images are transmitted through suitable noise channels. An analysis is done on how NOMA copes with the users having poor channel conditions. The performance is analysed by comparing the output images at both the receivers based on the structural similarity index and bit error rate parameters.
|
45 |
Mise à jour de la Base de Données Topographiques du Québec à l'aide d'images à très haute résolution spatiale et du progiciel Sigma0 : le cas des voies de communicationBélanger, Jean 12 1900 (has links)
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés.
L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES.
Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme.
La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus. / In order to optimize and reduce the cost of road map updating, the Ministry of Natural Resources and Wildlife is considering exploiting high definition color aerial photography within a global automatic detection process. In that regard, Montreal based SYNETIX Inc, teamed with the University of Montreal Remote Sensing Laboratory (UMRSL) in the development of an application indented for the automatic detection of road networks on complex radiometric high definition imagery.
This application named SIGMA-ROUTES is a derived module of a software called SIGMA0 earlier developed by the UMRSL for optic and radar imagery of 5 to 10 meter resolution. SIGMA-ROUTES road detections relies on a map guided filtering process that enables the filter to be driven along previously known road vectors and tagged them as intact, suspect or lost depending on the filtering responses. As for the new segments updating, the process first implies a detection of potential starting points for new roads within the filtering corridor of previously known road to which they should be connected. In that respect, it is a very challenging task to emulate the human visual filtering process and further distinguish potential starting points of new roads on complex radiometric high definition imagery.
In this research, we intend to evaluate the application’s efficiency in terms of total linear distances of detected roads as well as the spatial location of inconsistencies on a 2.8 km2 test site containing 40 km of various road categories in a semi-urban environment. As specific objectives, we first intend to establish the impact of different resolutions of the input imagery and secondly establish the potential gains of enhanced images (segmented and others) in a preemptive approach of better matching the image property with the detection parameters. These results have been compared to a ground truth reference obtained by a conventional visual detection process on the bases of total linear distances and spatial location of detection.
The best results with the most efficient combination of resolution and pre-processing have shown a 78% intact detection in accordance to the ground truth reference when applied to a segmented resample image. The impact of image resolution is clearly noted as a change from 84 cm to 210 cm resolution altered the total detected distances of intact roads of around 15%. We also found many roads segments ignored by the process and without detection status although they were directly liked to intact neighbours. By revising the algorithm and optimizing the image pre-processing, we estimate a 90% intact detection performance can be reached.
The new segment detection is non conclusive as it generates an uncontrolled networks of false detections throughout other entities in the images. Related to these false detections of new roads, we were able to identify numerous cases of new road detections parallel to previously assigned intact road segments. We conclude with a proposed procedure that involves enhanced images as input combined with human interventions at critical level in order to optimize the final product.
|
46 |
Mesure sans référence de la qualité des vidéos haute définition diffusées avec des pertes de transmission / No-Reference Video Quality Assessment of High Definition Video Streams Delivered with LossesBoujut, Hugo 24 September 2012 (has links)
Les objectifs de ce travail de thèse ont été: d’une part de détecter automatique-ment les images gelées dans des vidéos télédiffusées; et d’autre part de mesurer sans référencela qualité des vidéos télédiffusées (IP et DVB-T). Ces travaux ont été effectués dans le cadred’un projet de recherche mené conjointement par le LaBRI et la société Audemat WorldCastSystems.Pour la détection d’images gelées, trois méthodes ont été proposées: MV (basée vecteurde mouvement), DC (basée sur les coefficients DC de la DCT) et SURF (basée sur les pointscaractéristiques SURF). Les deux premières méthodes ne nécessitent qu’un décodage partieldu flux vidéo.Le second objectif était de mesurer sans référence la qualité des vidéos télédiffusées (IP etDVB-T). Une métrique a été développée pour mesurer la qualité perçue lorsque le flux vidéoa été altéré par des pertes de transmission. Cette métrique "Weighted Macro-Block ErrorRate" (WMBER) est fondée sur la mesure de la saillance visuelle et la détection des macro-blocs endommagés. Le rôle de la saillance visuelle est de pondérer l’importance des erreursdétectées. Certaines améliorations ont été apportées à la construction des cartes de saillancespatio-temporelle. En particulier, la fusion des cartes de saillance spatiale et temporelle aété améliorée par rapport à l’état de l’art. Par ailleurs, plusieurs études ont montré que lasémantique d’une scène visuelle avait une influence sur le comportement du système visuelhumain. Il apparaît que ce sont surtout les visages humains qui attirent le regard. C’est laraison pour laquelle nous avons ajouté une dimension sémantique aux cartes de saillancespatio-temporelle. Cette dimension sémantique est essentiellement basée sur le détecteurde visage de Viola Jones. Pour prédire la qualité perçue par les utilisateurs, nous avonsutilisé une méthode par apprentissage supervisé. Cette méthode offre ainsi la possibilité deprédire la métrique subjective "Mean Opinion Score" (MOS) à partir de mesures objectivestelles que le WMBER, PSNR ou SSIM. Une expérience psycho-visuelle a été menée avec 50sujets pour évaluer ces travaux. Cette base de données vidéo Haute-Définition est en coursde transfert à l’action COST Qualinet. Ces travaux ont également été évalués sur une autrebase de données vidéo (en définition standard) provenant de l’IRCCyN / The goal of this Ph.D thesis is to design a no-reference video quality assessment method for lossy net-works. This Ph.D thesis is conducted in collaboration with the Audemat Worldcast Systemscompany.Our first no-reference video quality assessment indicator is the frozen frame detection.Frozen frame detection was a research topic which was well studied in the past decades.However, the challenge is to embed a frozen frame detection method in the GoldenEagleAudemat equipment. This equipment has low computation resources that not allow real-time HD video decoding. Two methods are proposed: one based on the compressed videostream motion vectors (MV-method) and another one based on the DC coefficients from thedct transform (DC-method). Both methods only require the partial decoding of the com-pressed video stream which allows for real-time analysis on the GoldenEagle equipment.The evaluation shows that results are better than the frame difference base-line method.Nevertheless, the MV and the DC methods are only suitable with for MPEG2 and H.264video streams. So a third method based on SURF points is proposed.As a second step on the way to a no-reference video quality assessment metric, we areinterested in the visual perception of transmission impairments. We propose a full-referencemetric based on saliency maps. This metric, Weighted Mean Squared Error (WMSE), is theMSE metric weighted by the saliency map. The saliency map role is to distinguish betweennoticeable and unnoticeable transmission impairments. Therefore this spatio-temporal saliencymaps is computed on the impaired frame. Thus the pixel difference in the MSE computationis emphasized or diminished with regard to the pixel saliency. According to the state of theart, several improvements are brought to the saliency map computation process. Especially,new spatio-temporal saliency map fusion strategies are designed.After our successful attempt to assess the video quality with saliency maps, we develop ano-reference quality metric. This metric, Weighted Macro-Block Error Rate (WMBER), relies on the saliency map and the macro-block error detection. The macro-block error detectionprovides the impaired macro-blocks location in the frame. However, the impaired macro-blocks are concealed with more or less success during the decoding process. So the saliencymap provides the user perceived impairment strength for each macro-block.Several psycho-visual studies have shown that semantics play an important role in visualscene perception. These studies conclude that faces and text are the most attractive. Toimprove the spatio-temporal saliency model a semantic dimension is added. This semanticsaliency is based on the Viola & Jones face detector.To predict the Mean Opinion Score (MOS) from objective metric values like WMBER,WMSE, PSNR or SSIM, we propose to use a supervised learning approach. This approach iscalled Similarity Weighted Average (SWA). Several improvements are brought to the originalSWA.For the metrics evaluation a psycho-visual experiment with 50 subjects has been carriedout. To measure the saliency map models accuracy, a psycho-visual experiment with aneye-tracker has also been carried out. These two experiments habe been conducted in col-laboration with the Ben Gurion University, Israel. WMBER and WMSE performances arecompared with reference metrics like SSIM and PSNR. The proposed metrics are also testedon a database provided by IRCCyN research laboratory.
|
47 |
High-definition optical coherence tomography: Contribution to the non-invasive near infrared optical imaging techniques of the skinBoone, Marc 05 July 2016 (has links) (PDF)
Background. The development of non-invasive imaging techniques has been stimulated by the shortcomings of histopathology. Currently the only valid diagnostic technique in dermatology is skin biopsy which remains a painful, invasive intervention for the patient. Moreover, this approach is not always convenient for monitoring and follow-up of a skin disease. Optical imaging technologies could solve these shortcomings as they are fast, precise, repeatable and painless. There are four established non-invasive skin imaging techniques used in daily practice: dermoscopy, high-frequency ultrasound, reflectance confocal microscopy (RCM) and conventional optical coherence tomography (C-OCT). In imaging there is a trade-off between resolution and penetration depth. The former permits the visualization of cells, if the resolution is at least 3 µm. The latter enables the recognition of patterns and structures in deeper layers of the skin if the penetration depth is deeper than 150 µm. New non-invasive techniques using infrared light sources have been developed recently. The technique used in this work is a high-definition optical coherence tomography (HD-OCT).Objectives. The overall aims of this thesis were the feasibility of HD-OCT to visualize in/ex vivo, in real time and in 3-D the cellular and structural morphology of the skin, secondly the assessment of the capability of this technology to measure in vivo and real time the cutaneous optical properties, and finally the determination of the contribution of this technique to the non-invasive near-infrared imaging technologies. Five specific objectives have been established: i) could cells be observed in their 3-D microenvironment in normal and diseased skin, ii) could we describe morphologic features of cells and structures in normal and diseased skin (m_HD-OCT), iii) could these morphologic features be quantified by optical property analysis (o_HD-OCT), iv) was it possible to perform accurate thickness measurements in normal and diseased skin, and finally v) what was the diagnostic potential of this technique?Methodology. HD-OCT uses a combination of parallel time-domain interferometry, high power tungsten lamp (with Gaussian filter, very low lateral coherence and ultra-high bandwidth (1300 nm +/- 100 nm)), and last but not least, full field illumination with real time focus tracking. A constant homogeneous resolution of 3 µm resolution in all three dimensions is obtained up to a depth of 570 µm. Hence, the system is capable of capturing real time full 3-D images. Moreover, the in vivo assessment of optical properties of the skin is only applicable to OCT when operating in focus-tracking mode, which is the case for HD-OCT. The means to obtain answers to the five specific questions were the comparison of en face HD-OCT images with RCM and HD-OCT cross-sectional images with histopathology and C-OCT. Results. At least 160 line pares were observed by imaging a high resolution phantom with HD-OCT. This suggested a 3 µm lateral resolution. The presence of cells such as keratinocytes, melanocytes, inflammatory cells, fibroblasts and melanophages in their 3-D cutaneous microenvironment in vivo as well as ex vivo has been demonstrated .A qualitative description of structures and patterns in normal and diseased skin could be performed by HD-OCT. Clear structural changes of the epidermis, dermo-epidermal junction, papillary dermis and reticular dermis related to intrinsic skin ageing could be observed. Lobulated structures, surrounded by stretched stromal fibers and arborizing vessels, could be demonstrated in nodular basal cell carcinoma (BCC). The o_HD-OCT of normal and diseased skin could be assessed in vivo. This approach permitted the quantitative assessment of the OCT signal attenuation profiles of normal healthy skin, actinic keratosis (AK) and squamous cell carcinoma (SCC). Differences in signal attenuation profiles could be demonstrated between these three groups. These differences were also observed between BCC subtypes. The slope of the exponential attenuation of the signal in the upper part of the epidermis was very high in benign nevi. The more malignant the lesion the lower the slope. Thickness measurements of epidermis and papillary dermis could be performed by m_HD-OCT, based on a cross-sectional images and their corresponding en face image. More accurate measurements of epidermal and papillary dermal thickness could be performed based on the optical analysis of a skin volume by o_HD-OCT. The diagnostic potential of HD-OCT in comparison with dermoscopy, RCM and C-OCT could be assessed regarding i) melanoma, ii) BCC differentiation from BCC imitators and BCC sub-differentiation and iii) SCC differentiation from AK. A much higher diagnostic potential could be demonstrated for o_HD-OCT in comparison with m_HD-OCT concerning melanoma detection. The diagnostic potential of HD-OCT to discriminate BCC from clinical BCC imitators was moderate. However, HD-OCT seemed to have high potential in sub-differentiation of BCC subtypes: i) it seemed to be the best technique to include and exclude a superficial BCC, ii) the technique appeared to be the best approach to exclude nodular BCC, and iii) HD-OCT looked to be the best technique to include an infiltrative BCC. Finally, HD-OCT has proven to be a powerful method to discriminate AK from SCC.Conclusions. HD-OCT is able to capture real time 3-D imaging with a sufficiently high optical resolution and penetration depth to allow the visualization of cells in and ex vivo in their micro-architectural context. At the same time, HD-OCT permits the recognition of patterns and structures in a sufficiently large volume of skin (1.5 mm³). HD-OCT closes therefore the gap between RCM with a high resolution but low penetration depth and C-OCT with a low resolution but high penetration depth. Moreover, HD-OCT permits, in contrast to RCM and C-OCT, the real time in vivo analysis of optical properties of the skin. HD-OCT seems to be a promising tool for early diagnosis of melanoma, BCC sub-differentiation and differentiation between SCC and AK.Future perspectives. Multicenter validation studies are needed to determine the diagnostic performance of this promising new technology, especially in other clinical settings combining both morphological and optical property analysis. This combined analysis could be a valuable method not only for diagnosis, monitoring and therapeutic guidance of dermatologic diseases but it could also be helpful in the management of non-dermatologic conditions such as diabetic micro-angiopathy, infantile cystinosis or even osteoporosis. / Doctorat en Sciences médicales (Santé Publique) / info:eu-repo/semantics/nonPublished
|
48 |
WiMAX2多重跳躍中繼網路上具服務品質感知之混和自動重傳機制以提升高解析影像品質之研究 / QoS Aware HARQ to Improve High Definition Video Streaming over WiMAX2 MMR Network王茂盈, Wang, Mao Yin Unknown Date (has links)
使用無線網路時常會遇到傳送訊號衰減、通訊死角或氣候不佳等原因,造成傳輸失敗。高畫質影像H.264/MPEG-4 編碼考慮影音封包具有不同重要性,對影音封包須制定不同的重傳機制。本研究改善WiMAX2中HARQ(Auto Repeat Request)的流程,將高畫質影像藉由TCP-Like方式傳輸影像,辨識影音封包資訊,確保GOP-Tree中"骨幹"節點的抵達率並利用Lagrange Method of Multiplier方法,對GOP-Tree中非骨幹節點提出合適的Trade-off。IEEE 802.16m標準支援Mobile Multi-hop Relay (MMR)的架構,針對目前基地台覆蓋範圍不足及遮蔽效應等問題提出中繼傳輸站(Relay Station,RS)來提升網路吞吐量並增進無線通訊品質。但也因此需要有較多的連線頻道及頻寬。然而此方式不能保證所有頻道都處於良好傳輸狀態,此而常有相當高的資料傳送失敗率。
混和自動重傳要求(Hybrid Automatic Repeat reQuest, HARQ)的提出就是用來確保資料傳遞成功的機制。HARQ早在IEEE 802.16-2004就被提出,然而我們發現HARQ機制在IEEE 802.16m效能不佳,更無法保證QoS (Quality of Service)的服務品質要求。在本研究中我們改善Chen [4]所提出的Dynamic Pre-allocation HARQ(DP-HARQ)機制,考慮當slot分配不足,封包在發生非連續錯誤時造成延遲時間增加等問題。我們所提出的方法加入具服務品質感知(QoS aware)的機制,來降低整體延遲時間(delay)並能有效提高吞吐量(throughput)。在模擬實驗中,我們以具二個hop,二個BS及十個SS以上的模擬環境,對不同方法做不同效能的評比,並以PSNR值檢驗所提出之方法是否能提升畫質,以確保影像傳輸品質。我們透過實驗數據證明提出的方法優於IEEE 802.16m的HARQ機制。 / This research focus on running high definition video over WiMAX2.It is usually that transmission fails through wireless network as it encounters factors like (transmission) signal attenuation, dead zone, bad weather, etc. The high definition video coding in H.264/MPEG-4 involves different degress of important video frames considering the video package. It defines different re-transmission mechanisms for video package. This research starts with the enhancement on the process of HARQ (Hybrid Auto Repeat Request)over WiMAX2, transmitting high definition video signals by“TCP-Like”protocol and indentifying the video package information to ensure a stable arrival rate of the “backbone” nodes in GOP-Tree. Furthermore, we apply Lagrange’s Method of Multiplier and propose an appropriate customization to the non-backbone part in GOP-Tree. Though the IEEE 802.16 standards has the concept of Mobile Multi-hop Relay(MMR), yet there are problems to be resolved and improved when it comes to reality due to the facts like coverage deficiency of base stations and shadow effect. The IEEE 802.16m standard uses Relay Station (RS)to enhance network traffic throughput and improve QoS over wireless network.Relay transmission stations are set for data transmission in Mobile Multi-hop Relay (MMR),thus it requires more connection channels and bandwidth. The thesis concludes with performance comparison under the simulation environments of 2 hops, 2 BSs and 10 SSs, evaluation of the methodology with PSNR for enhancing the QoS of HD video transmission.The proposed method is proved to surpass the HARQ methodology in IEEE 802.16m.
|
49 |
Mise à jour de la Base de Données Topographiques du Québec à l'aide d'images à très haute résolution spatiale et du progiciel Sigma0 : le cas des voies de communicationBélanger, Jean 12 1900 (has links)
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés.
L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES.
Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme.
La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus. / In order to optimize and reduce the cost of road map updating, the Ministry of Natural Resources and Wildlife is considering exploiting high definition color aerial photography within a global automatic detection process. In that regard, Montreal based SYNETIX Inc, teamed with the University of Montreal Remote Sensing Laboratory (UMRSL) in the development of an application indented for the automatic detection of road networks on complex radiometric high definition imagery.
This application named SIGMA-ROUTES is a derived module of a software called SIGMA0 earlier developed by the UMRSL for optic and radar imagery of 5 to 10 meter resolution. SIGMA-ROUTES road detections relies on a map guided filtering process that enables the filter to be driven along previously known road vectors and tagged them as intact, suspect or lost depending on the filtering responses. As for the new segments updating, the process first implies a detection of potential starting points for new roads within the filtering corridor of previously known road to which they should be connected. In that respect, it is a very challenging task to emulate the human visual filtering process and further distinguish potential starting points of new roads on complex radiometric high definition imagery.
In this research, we intend to evaluate the application’s efficiency in terms of total linear distances of detected roads as well as the spatial location of inconsistencies on a 2.8 km2 test site containing 40 km of various road categories in a semi-urban environment. As specific objectives, we first intend to establish the impact of different resolutions of the input imagery and secondly establish the potential gains of enhanced images (segmented and others) in a preemptive approach of better matching the image property with the detection parameters. These results have been compared to a ground truth reference obtained by a conventional visual detection process on the bases of total linear distances and spatial location of detection.
The best results with the most efficient combination of resolution and pre-processing have shown a 78% intact detection in accordance to the ground truth reference when applied to a segmented resample image. The impact of image resolution is clearly noted as a change from 84 cm to 210 cm resolution altered the total detected distances of intact roads of around 15%. We also found many roads segments ignored by the process and without detection status although they were directly liked to intact neighbours. By revising the algorithm and optimizing the image pre-processing, we estimate a 90% intact detection performance can be reached.
The new segment detection is non conclusive as it generates an uncontrolled networks of false detections throughout other entities in the images. Related to these false detections of new roads, we were able to identify numerous cases of new road detections parallel to previously assigned intact road segments. We conclude with a proposed procedure that involves enhanced images as input combined with human interventions at critical level in order to optimize the final product.
|
50 |
The Ending Needs Work AKA the Good, the Bad and the Ugly of being an independent filmmaker in AustraliaCatling, Aaron January 2005 (has links)
Over the period of candidature, write and direct a feature film to completion. Furthermore, undertake a thorough reflective phase which involves the analysis of each aspect relating to those key components, writing and directing. Through this form of creative practice and utilising state of the art digital filmmaking techniques it is hoped that an addition to knowledge will be achieved.
|
Page generated in 0.0669 seconds