Spelling suggestions: "subject:"checkcif"" "subject:"checkbit""
271 |
Εξόρυξη και αξιοποίηση δεδομένων τοποθεσίας από υπηρεσίες κοινωνικής δικτύωσηςΝτεντόπουλος, Περικλής 03 April 2015 (has links)
Η ολοένα και αυξανόμενη χρήση των ηλεκτρονικών υπολογιστών και του Διαδικτύου σε διάφορες εκφάνσεις της καθημερινότητας του ανθρώπου, έχει επιφέρει μια επανάσταση στο χώρο της τεχνολογίας, η οποία εξακολουθεί να υφίσταται στις μέρες μας. Η έλευση και η εδραίωση του Web 2.0 και των εργαλείων που το απαρτίζουν, σε συνδυασμό με την έμφυτη τάση του ανθρώπου για επικοινωνία, οδήγησαν με τη σειρά τους στην εμφάνιση των λεγόμενων Υπηρεσιών Κοινωνικής Δικτύωσης. Οι υπηρεσίες αυτές προσφέρουν δυνατότητες επικοινωνίας, ψυχαγωγίας αλλά και διαφήμισης και αποτελούν, πλέον, αναπόσπαστο κομμάτι της καθημερινότητας πολλών ανθρώπων παγκοσμίως.
H αυξανόμενη χρήση των υπηρεσιών αυτών, σε συνδυασμό με την εμφάνιση και καθιέρωση των λεγόμενων έξυπνων κινητών συσκευών που είναι εξοπλισμένα με GPS και μπορούν να εντοπίζουν την τρέχουσα θέση του εκάστοτε χρήστη, οδήγησαν στον εμπλουτισμό των υφιστάμενων υπηρεσιών κοινωνικής δικτύωσης με χαρακτηριστικά τοποθεσίας, αλλά και στην ανάπτυξη μιας νέας κατηγορίας δικτύων, των λεγόμενων Υπηρεσιών Κοινωνικής Δικτύωσης που βασίζονται στην τοποθεσία. Οι υπηρεσίες αυτές διαθέτουν όλα τα γνωρίσματα των παραδοσιακών κοινωνικών δικτύων, ωστόσο το κύριο χαρακτηριστικό τους είναι ο εντοπισμός και ο διαμοιρασμός της γεωγραφικής θέσης του χρήστη.
Σήμερα, οι υπηρεσίες κοινωνικής δικτύωσης που βασίζονται στην τοποθεσία είναι εξαιρετικά δημοφιλείς με εκατομμύρια χρήστες παγκοσμίως. Αυτή η αποδοχή και η εκτεταμένη χρήση τους έχουν ως αποτέλεσμα έναν εξαιρετικά μεγάλο όγκο δεδομένων, ο οποίος είναι διαθέσιμος μέσω των Διεπαφών Προγραμματισμού Εφαρμογών που αυτές διαθέτουν και έχει κεντρίσει το ενδιαφέρον των ερευνητών για μελέτη.
Στα πλαίσια της παρούσας μεταπτυχιακής διπλωματικής εργασίας, θα μελετηθούν οι υπηρεσίες κοινωνικής δικτύωσης, οι υπηρεσίες κοινωνικής δικτύωσης που βασίζονται στην τοποθεσία, τα χαρακτηριστικά που αυτές διαθέτουν, καθώς και ορισμένα παραδείγματα τέτοιων υπηρεσιών. Επιπλέον, θα παρουσιαστεί η υλοποίηση μιας εφαρμογής, η οποία συλλέγει δεδομένα για 10 ευρωπαϊκά αεροδρόμια από τα API του Foursquare και του Facebook, αλλά και δεδομένα για διάφορα σημεία του Foursquare σε σχέση με δεδομένα καιρού από το API της υπηρεσίας OpenWeatherMap, η δημιουργία ενός διαχειριστικού περιβάλλοντος για το σκοπό αυτό, καθώς και τα αποτελέσματα από τη στατιστική ανάλυση των μετρήσεων. Στόχος μας είναι να διερευνήσουμε εάν τέτοιου είδους δεδομένα είναι αντιπροσωπευτικά των αντίστοιχων πραγματικών δεδομένων ή σχετίζονται με δεδομένα από άλλες διαδικτυακές υπηρεσίες. Αυτό γίνεται μελετώντας τη συσχέτιση των πληροφοριών που αντλούνται από το Foursquare με τα αντίστοιχα δεδομένα του πραγματικού κόσμου, τη συσχέτιση των δεδομένων που παράγονται από το Foursquare και το Facebook, αλλά και των δεδομένων του Foursquare σε σχέση με δεδομένα καιρού από την υπηρεσία OpenWeatherMap. / The more and more growing use of computers and the Internet in different situations of man’s everyday life, has brought about a technological revolution which continues happening in our days. The advent and the consolidation of Web 2.0 and the tools which form it, in combination with the man’s innate trend for communication, lead by their turn to the development of Social Network(ing) Services (SNS). These services give the chance to people for communication, entertainment, as well as advertising and they are an integral part in people’s everyday lives worldwide.
The growing use of these services, in combination with the appearance and the establishment of the so called smart mobile devices which are equipped with GPS and can detect the exact location of every user, lead to the enrichment of the undergoing Social Network Services with location characteristics, but also to the development of a new category of networks, the Location-Based Social Networks (LBSN). These services have all the characteristics of the traditional social networks, however their main feature is the localization and the distribution of a user’s location.
Today, the Location-Based Social Networks are extremely popular to millions of users all around the world. This acceptance and their extending use have as a result an extremely volume of data which is available through their Application Programming Interfaces (APIs) and it has roused the interest of researchers for study.
Within the framework of the present postgraduate thesis, the Social Network Services, the Location-Based Social Networks, their features and some examples of these services will be studied. Moreover, the materialization of an application which collects data for 10 european airports from the APIs of Foursquare and Facebook, but also data for different venues of Foursquare in connection with weather data from the API of OpenWeatherMap, as well as the creation of an administrative environment for this purpose and the results of the statistical analysis of our measurements will be presented. Our goal is to investigate if such data are representative of real world data or if such data are related to data from other online services. This is done by studying the correlation of data which are derived by Foursquare with the equivalent data of the real world and the correlation of data which are produced by Foursquare and Facebook, as well as the correlation of data which are produced by Foursquare with weather data from OpenWeatherMap.
|
272 |
Αλγόριθμοι επαναληπτικής αποκωδικοποίησης κωδικών LDPC και μελέτη της επίδρασης του σφάλματος κβαντισμού στην απόδοση του αλγορίθμου Log Sum-ProductΚάνιστρας, Νικόλαος 25 May 2009 (has links)
Οι κώδικες LDPC ανήκουν στην κατηγορία των block κωδικών. Πρόκειται για κώδικες ελέγχου σφαλμάτων μετάδοσης και πιο συγκεκριμένα για κώδικες διόρθωσης σφαλμάτων. Αν και η εφεύρεσή τους (από τον Gallager) τοποθετείται χρονικά στις αρχές της δεκαετίας του 60, μόλις τα τελευταία χρόνια κατάφεραν να κεντρίσουν το έντονο ενδιαφέρον της επιστημονικής-ερευνητικής κοινότητας για τις αξιόλογες επιδόσεις τους. Πρόκειται για κώδικες ελέγχου ισοτιμίας με κυριότερο χαρακτηριστικό τον χαμηλής πυκνότητας πίνακα ελέγχου ισοτιμίας (Low Density Parity Check) από τον οποίο και πήραν το όνομά τους. Δεδομένου ότι η κωδικοποίηση των συγκεκριμένων κωδικών είναι σχετικά απλή, η αποκωδικοποίηση τους είναι εκείνη η οποία καθορίζει σε μεγάλο βαθμό τα χαρακτηριστικά του κώδικα που μας ενδιαφέρουν, όπως είναι η ικανότητα διόρθωσης σφαλμάτων μετάδοσης (επίδοση) και η καταναλισκόμενη ισχύς. Για το λόγο αυτό έχουν αναπτυχθεί διάφοροι αλγόριθμοι αποκωδικοποίησης, οι οποίοι είναι επαναληπτικοί. Παρόλο που οι ανεπτυγμένοι αλγόριθμοι και οι διάφορες εκδοχές τους δεν είναι λίγοι, δεν έχει ακόμα καταστεί εφικτό να αναλυθεί θεωρητικά η επίδοσή τους.
Στην παρούσα εργασία παρατίθενται οι κυριότεροι αλγόριθμοι αποκωδικοποίησης κωδικών LDPC, που έχουν αναπτυχθεί μέχρι σήμερα. Οι αλγόριθμοι αυτοί υλοποιούνται και συγκρίνονται βάσει των αποτελεσμάτων εξομοιώσεων. Ο πιο αποδοτικός από αυτούς είναι ο αποκαλούμενος αλγόριθμος log Sum-Product και στηρίζει σε μεγάλο βαθμό την επίδοσή του σε μία αρκετά πολύπλοκή συνάρτηση, την Φ(x). Η υλοποίηση της τελευταίας σε υλικό επιβάλλει την πεπερασμένη ακρίβεια αναπαράστασής της, δηλαδή τον κβαντισμό της. Το σφάλμα κβαντισμού που εισάγεται από την διαδικασία αυτή θέτει ένα όριο στην επίδοση του αλγορίθμου. Η μελέτη που έγινε στα πλαίσια της εργασίας οδήγησε στον προσδιορισμό δύο μηχανισμών εισαγωγής σφάλματος κβαντισμού στον αλγόριθμο log Sum-Product και στη θεωρητική έκφραση της πιθανότητας εμφάνισης κάθε μηχανισμού κατά την πρώτη επανάληψη του αλγορίθμου.
Μελετήθηκε επίσης ο τρόπος με τον οποίο το εισαγόμενο σφάλμα κβαντισμού επιδρά στην απόφαση του αλγορίθμου στο τέλος της κάθε επανάληψης και αναπτύχθηκε ένα θεωρητικό μοντέλο αυτού του μηχανισμού. Το θεωρητικό μοντέλο δίνει την πιθανότητα αλλαγής απόφασης του αλγορίθμου λόγω του σφάλματος κβαντισμού της συνάρτησης Φ(x), χωρίς όμως να είναι ακόμα πλήρες αφού βασίζεται και σε πειραματικά δεδομένα. Η ολοκλήρωση του μοντέλου, ώστε να είναι πλήρως θεωρητικό, θα μπορούσε να αποτελέσει αντικείμενο μελλοντικής έρευνας, καθώς θα επιτρέψει τον προσδιορισμό του περιορισμού της επίδοσης του αλγορίθμου για συγκεκριμένο σχήμα κβαντισμού της συνάρτησης, αποφεύγοντας χρονοβόρες εξομοιώσεις. / Low-Density Parity-Check (LDPC) codes belong to the category of Linear Block Codes. They are error detection and correction codes. Although LDPC codes have been proposed by R. Gallager since 1962, they were scarcely considered in the 35 years that followed. Only in the end-90's they were rediscovered due to their decoding performance that approaches Shannon limit. As their name indicates they are parity check codes whose parity check matrix is sparse. Since the encoding process is simple, the decoding procedure determines the performance and the consumed power of the decoder. For this reason several iterative decoding algorithms have been developed. However theoretical determination of their performance has not yet been feasible.
This work presents the most important iterative decoding algorithms for LDPC codes, that have been developed to date. These algorithms are implemented in matlab and their performance is studied through simulation. The most powerful among them, namely Log Sum-Product, uses a very nonlinear function called Φ(x). Hardware implementation of this function enforces finite accuracy, due to finite word length representation. The roundoff error that this procedure imposes, impacts the decoding performance by means of two mechanisms. Both mechanisms are analyzed and a theoretical expression for each mechanism activation probability, at the end of the first iteration of the algorithm, is developed.
The impact of the roundoff error on the decisions taken by the log Sum-Product decoding algorithm at the end of each iteration is also studied. The mechanism by means of which roundoff alters the decisions of a finite word length implementation of the algorithm compared to the infinite precision case, is analyzed and a corresponding theoretical model is developed. The proposed model computes the probability of changing decisions due to finite word length representation of Φ(x), but it is not yet complete, since the determination of the corresponding parameters is achieved through experimental results. Further research focuses on the completion of the theoretical model, since it can lead to a tool that computes the expected degradation of the decoding performance for a particular implementation of the decoder, without the need of time-consuming simulations.
|
273 |
Advanced Coding Techniques For Fiber-Optic Communications And Quantum Key DistributionZhang, Yequn January 2015 (has links)
Coding is an essential technology for efficient fiber-optic communications and secure quantum communications. In particular, low-density parity-check (LDPC) coding is favoured due to its strong error correction capability and high-throughput implementation feasibility. In fiber-optic communications, it has been realized that advanced high-order modulation formats and soft-decision forward error correction (FEC) such as LDPC codes are the key technologies for the next-generation high-speed optical communications. Therefore, energy-efficient LDPC coding in combination with advanced modulation formats is an important topic that needs to be studied for fiber-optic communications. In secure quantum communications, large-alphabet quantum key distribution (QKD) is becoming attractive recently due to its potential in improving the efficiency of key exchange. To recover the carried information bits, efficient information reconciliation is desirable, for which the use of LDPC coding is essential. In this dissertation, we first explore different efficient LDPC coding schemes for optical transmission of polarization-division multiplexed quadrature-amplitude modulation (QAM) signals. We show that high energy efficiency can be achieved without incurring extra overhead and complexity. We then study the transmission performance of LDPC-coded turbo equalization for QAM signals in a realistic fiber link as well as that of pragmatic turbo equalizers. Further, leveraging the polarization freedom of light, we expand the signal constellation into a four-dimensional (4D) space and evaluate the performance of LDPC-coded 4D signals in terms of transmission reach. Lastly, we study the security of a proposed weak-coherent-state large-alphabet QKD protocol and investigate the information reconciliation efficiency based on LDPC coding.
|
274 |
Kadastrinių matavimų patikros tyrimas / Research on Cadastral measurement's ReviseBučinskaitė, Viktorija 29 June 2009 (has links)
Baigiamajame magistro darbe atlikta mokslinės literatūros analizė kadastrinių matavimų, kadastrinių sistemų Europos sąjungos šalyse, žemės kadastro, kadastro duomenų ir duomenų saugos klausimais. Aptartas žemės sklypo planų išankstinių patikrų būtinumas ir tikslas. Išnagrinėtos trijų Europos Sąjungos šalių kadastrinės sistemos, kadangi tik nuo išvystytos kadastrinės sistemos priklauso kokybiškas kadastro duomenų surinkimas, apdorojimas ir pateikimas. Išsamiai aprašyti tyrimo metodai ir būdai bei tikslumo reikalavimai pažymint žemės sklypo ribas kadastro žemėlapyje. Išanalizuotos žemės sklypo ribų pažymėjimo kadastro žemėlapyje, atliekant išankstinę patikrą, problemos. Pateikti išsamūs išankstinių patikrų tyrimo rezultatai. Palygintos kadastrinės sistemos Lietuvoje, Nyderlanduose ir Suomijoje. Išnagrinėjus teorinius ir praktinius išankstinių patikrų bei kadastrinių sistemų aspektus, pateikiamos baigiamojo darbo išvados ir pasiūlymai. Darbą sudaro: įvadas, septyni skyriai, išvados ir pasiūlymai, literatūros sąrašas. Darbo apimtis – 60 p. teksto be priedų, 18 iliustracijų, 9 lentelės, 24 bibliografiniai šaltiniai. Atskirai pridedami darbo priedai. / At the final master work it was analysed scientific literature of cadastral measurements, cadastral systems of the European Union countries, the land cadastre, cadastral data and safety issues. It was discussed the necessity and purpose of prior checks of land plans. It was Examined cadastral systems of three European Union countries, because just from only developed cadastral systems depend high quality of cadastral data collection, processing and presentation. Described in detail methods and techniques also accuracy requirements of marking the boundaries of the land parcel in cadastral map. It was also analyzed problems of prior checks in marking the boundaries of land parcel in cadastral map. In this work was provided comprehensive analysis results of prior checks. And represented the comparison of cadastral systems in Lithuania, the Netherlands and Finland. The examination of the theoretical and practical aspects of prior checks and cadastral systems, presented the final conclusions and proposals. The work consists of introduction, seven chapters, conclusions and suggestions. Work size - 60 p. text without appendixes, 18 illustrations, 9 tables, 24 bibliographical sources. Appendixes included.
|
275 |
Assessment of Global Buckling and Fatigue Life for Steel Catenary RIser by Hull-Riser-Mooring Coupled Dynamic Analysis ProgramEom, Taesung 16 December 2013 (has links)
Steel Catenary Riser (SCR) is a popular solution for a floating production facility in the deep and ultra-deep ocean. In the analysis of SCR, the behavioral characteristics are investigated to check the failure modes by assessing the magnitude and the frequency of the stress and strain which SCR goes through in time series. SCR is affected by the motions of connected floating production facility and exciting environmental loads. The driven force and motion of SCR has an interaction with seabed soil which represents the stiffness and friction force where SCR touches the seabed. Dynamic response of SCR is primarily caused by the coupled motion of floating structure. The displacement of floating structure is often large and fast enough to cause short cycles of negative and positive tension on SCR. The interaction between SCR and seabed is concentrated at the touchdown zone resulting into the compression and corresponding deformation of pipeline at the position. This paper presents models of floating production facilities and connected mooring lines and SCRs in 100-year hurricane environmental loads and seabed, focusing on the motional characteristics of SCR at the touchdown zone. In time series simulation, the model of SCR is first analyzed as a pipeline with indefinite elasticity so that the SCR does not fail even if the exciting loads exceed the property limit of SCR. Then the SCR design is manually checked using criteria for each failure mode to estimate the integrity.
|
276 |
Iterative joint detection and decoding of LDPC-Coded V-BLAST systemsTsai, Meng-Ying (Brady) 10 July 2008 (has links)
Soft iterative detection and decoding techniques have been shown to be able to achieve near-capacity performance in multiple-antenna systems. To obtain the optimal soft information by marginalization over the entire observation space is intractable; and the current literature is unable to guide us towards the best way to obtain the suboptimal soft information. In this thesis, several existing soft-input soft-output (SISO) detectors, including minimum mean-square error-successive interference cancellation (MMSE-SIC), list sphere decoding (LSD), and Fincke-Pohst maximum-a-posteriori (FPMAP), are examined. Prior research has demonstrated that LSD and FPMAP outperform soft-equalization methods (i.e., MMSE-SIC); however, it is unclear which of the two scheme is superior in terms of performance-complexity trade-off. A comparison is conducted to resolve the matter. In addition, an improved scheme is proposed to modify LSD and FPMAP, providing error performance improvement and a reduction in computational complexity simultaneously. Although list-type detectors such as LSD and FPMAP provide outstanding error performance, issues such as the optimal initial sphere radius, optimal radius update strategy, and their highly variable computational complexity are still unresolved. A new detection scheme is proposed to address the above issues with fixed detection complexity, making the scheme suitable for practical implementation. / Thesis (Master, Electrical & Computer Engineering) -- Queen's University, 2008-07-08 19:29:17.66
|
277 |
Digit-Online LDPC DecodingMarshall, Philip A. Unknown Date
No description available.
|
278 |
Système de listes de vérification interactives du niveau de conformité des maquettes avec les recommandations des fabricants de plateformes mobilesGhezzal, Nadir 08 1900 (has links)
La demande d'applications pour les plateformes mobiles a explosé ces dernières années. Chaque compagnie souhaite maintenant offrir pour ces nouveaux appareils les mêmes services que ceux offerts traditionnellement sur internet. Cependant, ces entreprises n'ont bien souvent que peu ou pas de connaissances concernant le développement et le déploiement de tels services. Généralement, la solution choisie consiste à externaliser ce travail en le sous-traitant à une autre compagnie. Dans ce contexte, il est souvent compliqué de s'assurer d'une part que le sous-traitant respecte le cahier des charges et d'autre part que le travail fourni est conforme aux recommandations émises par les fabricants des plateformes mobiles. Afin de pallier au second problème, nous avons créé un système de listes de vérification interactives pour plateformes mobiles. Ce système permet d'évaluer le niveau de conformité des différents composants de l'interface d'une application développée pour une plateforme mobile avec les recommandations du fabricant de cette plateforme. La solution retenue permet de se concentrer sur certains éléments particuliers de l'interface et pallie ainsi aux limites des listes de vérification classiques qui sont souvent trop longues et peu pratiques. La solution retenue offre de plus la possibilité de comparer facilement les caractéristiques des plateformes mobiles entre elles.
Pour réaliser ce système, nous avons consulté de nombreux documents portant sur l'univers des plateformes mobiles afin de mieux appréhender leurs spécificités. Suite à l'étude de différentes plateformes, deux d’entre elles, soit iOS et BlackBerry, ont été retenues (il faut noter que la compagnie où s'est effectuée la recherche disposait déjà d'applications pour ces plateformes). Nous avons ensuite analysé plus finement la documentation technique fournie par chacun des fabricants afin d'en extraire les points importants. Afin que les données soient comparables, nous avons créé une nomenclature commune regroupant les composants de l'interface graphique en grandes familles (ex. : barres, saisie d'information, …) en tenant compte également du type d'interaction avec l'appareil (ex. : écran tactile). Nous avons ensuite conçu une solution permettant d'évaluer le niveau de conformité d'une application. L'idée retenue se base sur des listes de vérification permettant de systématiser le processus d'évaluation. Pour pallier aux limites de ces listes, souvent trop longues, nous permettons à l'utilisateur, via un ensemble de filtres, de se concentrer sur un sous-ensemble de composants de l’interface qu'il souhaite évaluer.
L'implémentation de cette solution a été réalisée en totalité grâce à des technologies libres et de standard ouvert. De cette façon, nous nous sommes assurés de la portabilité de la solution développée et de l’absence de coûts supplémentaires liés à l'achat de licences. Le système utilise les standards web et repose sur une architecture basée sur le système d'exploitation GNU/Linux, le serveur web Apache, la base de données MySQL et le langage de scripts PHP. Ces logiciels ont déjà fait leurs preuves aussi bien pour les entreprises que pour les particuliers. De plus, la communauté très active qui s'est constituée autour de ces logiciels assure un bon support et une grande stabilité. Après avoir fait le choix de l’environnement de développement, la phase d'implémentation s'est ensuite déroulée en plusieurs étapes. Tout d'abord, l'information a été structurée selon la nomenclature mentionnée plus haut afin de créer le schéma de la base de données. Ensuite, toutes les pages ont été codées avec le langage à balises HTML et les scripts PHP pour le côté serveur et avec JavaScript pour le côté client. Enfin, l'information peut être affichée grâce aux feuilles de style en cascade (CSS), une technologie web permettant de séparer le fond de la forme en matière de mise en page.
Nous avons choisi un modèle de développement itératif qui a impliqué les principaux utilisateurs dès les premières étapes de la conception du système. Cette implication s’est poursuivie jusqu’à la fin du projet afin de s'assurer que les fonctionnalités mises en place répondaient aux attentes. L’architecture modulaire qui a été retenue permet également d’adapter facilement le système aux besoins futurs. Afin de mieux comprendre comment on utilise le système, on passe en revue les différentes étapes nécessaires à la réalisation d'une évaluation. Enfin, on a réalisé une étude avec quatre utilisateurs pour évaluer l'utilisabilité du système et recueillir leur niveau de satisfaction. / The need for mobile platforms has increased in the last decade. Companies offering traditional internet services now want to move their applications on these new devices. But, most of the time, these companies do not really have the knowledge to create such applications and often ask a third party company to do the job for them. In this context, it is difficult to evaluate if the solution developed follows the recommendations of the device maker. A system based on interactive check lists has thus been created for this purpose. This system enables the evaluation of the conformity level of an application with the recommendations of the device maker, thanks to numerous filters that let the user focus on specific parts of the graphic interface. The idea behind the project was first to address some problematic issues with classical check lists and to enable the comparison of several mobile platforms with regard to specific interface components.
To create this system, a lot of information about mobile platforms has first been collected. After reviewing many mobile platforms, it was decided to focus on iOS and BlackBerry, since the company where the research was performed had already applications running on them. For each platform, the major recommandations to be satisfied were identified. Also, to be sure that the extracted recommendations could be compared, a common nomenclature has been created, where the recommandations are grouped by interface components (ex: bars, data input,…) and by the type of interaction (ex: touch screen). After these preliminary steps, a solution for evaluating the level of compliance was created. We favored a check list approach because it offers a systematic evaluation process. To avoid lists of excessive length, filters were introduced in the system to allow the user to focus on particular aspects of the interface.
The implementation was totally realized with open source technologies and open standards. This choice was motivated by the portability of the developed system and by the absence of licence fees. The system relies on web standards and runs on an architecture made of the CNU/Linux operating system, Apache web server, MySQL database and the script language PHP. This software has already proven its reliability for enterprises and for home users. Furthermore, the community evolving around this software offers a good support and ensures a high level of stability. After setting up the development environment, the implementation phase was engaged and took place over a number of phases. The first phase was the creation of the database structure, using the aforementioned nomenclature. The next phase was dedicated to the coding of the different web pages, thanks to the tag language HTML and the PHP scripts on the server side and JavaScript on the client side. Finally, the web page setting was developed using the cascading style sheet (CSS), a web technology that segregates the substance from the style of the web content.
We chose an iterative development model where the end users were involved from the early stages of the project. This approach provides a guarantee that the user requirements are fulfilled and that any new developments will be in accordance with the expectations. Furthermore, the system is such that it can be easily modified to tackle future needs. To be able to understand how we use the systeme, we are reviewing the different steps needed to realise an evaluation. Finally, we have made a study with four users to evaluate the usability of the system and to gather their satisfaction level. / L'ensemble de mon travail a été réalisé grâce a l'utilisation de logiciel libre.
|
279 |
Talent Discovery Incorporation營運企劃書 / Talent Discovery Incorporation Business Plan林祈均, Lin, Chi Chun Unknown Date (has links)
Talent Discovery Incorporation營運企劃書 / This Business plan illustrates the establish process of a new business of background screening service. Background searching is widely used in the hiring process. In China and Taiwan, almost 90% organizations include background check into their hiring processes. Traditionally, background screening service is a labor-intensive industry, which means that it is time-consuming and costly. Therefore, most organizations are not able to check every job candidates’ background even they know it is very keen to hire the right people. Talent Discovery Incorporation uses an advanced technology platform which enable our customers to understand their job candidates by reports which summarize public information of internet and social media. Meanwhile, Talent Discovery Incorporation provides superior customer service delivered by experts who understand local markets. Combined with these two advantages, Talent Discovery Incorporation will become a new model of Chinese background screening industry.
|
280 |
Mobile Gemeinschaften im E-GovernmentFritsch, Lothar, Stephan, Kerstin, Grohmann, Alexander 15 December 2014 (has links) (PDF)
In der E-Commerce-Forschung wird aus Sicht von Wertschöpfung und Marketing das Konzept virtueller Gemeinschaften ausgiebig erforscht. Solche Gemeinschaften sollten Wissen zu Verfügung stellen, Kundenkontakte vereinfachen oder zusammen eine Wertschöpfung erbringen, an der nach [1] der Anbieter der virtuellen Plattform Profite erwirtschaftet. E-Government zielt auf die elektronische Abbildung von Vorgängen der öffentlichen Verwaltung. Nach der Speyer Definition [2] besteht E-Government aus Informationsdiensten, Partizipation der Bürger und elektronischer Abwicklung der Transaktionen innerhalb der Verwaltung und zwischen Verwaltung und den anderen Sektoren. Auffällig ist die Beschränkung von E-Government auf die Umsetzung existierender Verwaltungsvorgänge. Dies beschränkt die Wertschöpfung im EGovernment auf Effizienzgewinne, schließt die Profite durch virtuelle Gemeinschaften in einer Bürgergesellschaft jedoch weitgehend aus.
|
Page generated in 0.0316 seconds