• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 12
  • 4
  • 4
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 50
  • 50
  • 12
  • 9
  • 9
  • 9
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Une approche générique pour l'analyse croisant contenu et usage des sites Web par des méthodes de bipartitionnement / A generic approach to combining web content and usage analysis using biclustering algorithms

Charrad, Malika 22 March 2010 (has links)
Dans cette thèse, nous proposons une nouvelle approche WCUM (Web Content and Usage Mining based approach) permettant de relier l'analyse du contenu à l'analyse de l'usage d'un site Web afin de mieux comprendre le comportement général des visiteurs du site. Ce travail repose sur l'utilisation de l'algorithme CROKI2 de classification croisée implémenté selon deux stratégies d'optimisation différentes que nous comparons à travers des expérimentations sur des données générées artificiellement. Afin de pallier le problème de détermination du nombre de classes sur les lignes et les colonnes, nous proposons de généraliser certains indices proposés initialement pour évaluer les partitions obtenues par des algorithmes de classification simple, aux algorithmes de classification simultanée. Pour évaluer la performance de ces indices nous proposons un algorithme de génération de biclasses artificielles pour effectuer des simulations et valider les résultats. Des expérimentations sur des données artificielles ainsi qu'une application sur des données réelles ont été réalisées pour évaluer l'efficacité de l'approche proposée. / In this thesis, we propose a new approach WCUM (Web Content and Usage Mining based approach) for linking content analysis to usage analysis of a website to better understand the general behavior of the web site visitors. This work is based on the use of the block clustering algorithm CROKI2 implemented by two different strategies of optimization that we compared through experiments on artificially generated data. To mitigate the problem of determination of the number of clusters on rows and columns, we suggest to generalize the use of some indices originally proposed to evaluate the partitions obtained by clustering algorithms to evaluate bipartitions obtained by simultaneous clustering algorithms. To evaluate the performance of these indices on data with biclusters structure, we proposed an algorithm for generating artificial data to perform simulations and validate the results. Experiments on artificial data as well as on real data were realized to estimate the efficiency of the proposed approach.
42

REFLEKTOR - webový systém pro podporu výuky / REFLEKTOR - Web System for Teaching Support

Sitko, Radek January 2007 (has links)
This thesis deals with design and implementation of a web application to support interactive tuition in programming within the IZP - Course of Programming Essentials. It enables students submit their own solutions to a specific task and allows them to review some tasks completed by other students. Web pages are created with respect to maximum accessibility of their content and functionality. Their layout and controls are designed in such manner to make them accessible both by alternative browsers as well as by people with specific needs. The application design is created using the UML modelling language. The very application is implemented using the PHP script language together with theXHTML, cascade style sheets (CCS) and the MySQL database system. This thesis also focuses on implementation of the system on FIT websites and its utilisation by students.
43

Framsteg och utmaningar inom digital tillgänglighet : En studie om DOS-lagens påverkan på tillgänglighet till svenska myndigheters webbplatser / Progress and challenges in digital accessibility : A study on the impact of the digital public service accessibility law on accessibility of Swedish government websites

Ek, Emelie, Söder, Jacob January 2023 (has links)
Tillgänglighet på offentliga aktörers webbplatser är väsentligt för att säkerställa att alla individer i ett samhälle har tillgång till samhällsviktig information. Trots detta är det många webbplatser som saknar tillgänglighetsanpassningar. Tillgänglighet på webbplatser innebär att de bör vara lättnavigerade och lättlästa samt att det finns tillgänglighetsanpassningar för personer med synnedsättningar, funktionsvariationer eller rörelsehinder. År 2019 trädde lagen om tillgänglighet till digital offentlig service (DOS-lagen) i kraft, lagen stadgar krav på tillgänglighet till digital service som tillhandahålls av offentliga aktörer. Syftet med denna studie var att undersöka om DOS-lagen har haft en effekt på svenska myndigheters tillgänglighetsarbete och hur väl de följer och tillämpar lagen. Genom att utvärdera tillgängligheten på sex myndigheters webbplatser och intervjuer med personer som arbetar på svenska myndigheter har ett resultat sammanställts. Utvärderingarna visade att myndigheternas webbplatser erhöll de tillgänglighetsanpassningar som DOS-lagen ställer som krav. Förbättringsmöjligheter har identifierats, de största bristerna från utvärderingen var tillgänglighetsanpassade pdf:er och en mer konsekvent navigation och utformning. Intervjuerna gav en inblick i hur arbetet kring tillgänglighetsanpassningar gick till på svenska myndigheter och att DOS-lagen varit ett uppvaknande för att skapa mer förståelse och standardiserade arbetssätt kring digital tillgänglighet. Det är viktigt att belysa att denna studien är av en mindre skala vilket gör det svårt att generalisera till majoriteten av svenska myndigheter. Det betonar att framtida studier kan genomföras med fler myndigheter för att få ett bredare perspektiv. / Accessibility on public entities websites is crucial to ensure that all individuals in a society have access to vital societal information. Despite this, many websites lack accessibility adaptations. Web accessibility means that websites should be easy to navigate and read, and should include accommodations for individuals with visual impairments, disabilities, or mobility challenges. In 2019, the Digital Public Service Accessibility Act (DOS-act) came into effect, imposing accessibility requirements on digital services provided by public entities. The purpose of this study was to investigate the impact of the DOS-act on the accessibility efforts of Swedish authorities and how well they adhere to and implement the law. By evaluating the accessibility of six agency websites and conducting interviews with individuals working in Swedish authorities, a set of findings has been compiled. The evaluations revealed that the agencies' websites met the accessibility adaptations required by the DOS-act. Areas for improvement were identified, with the main shortcomings from the evaluation being accessible PDFs and more consistent navigation and design. The interviews provided insight into the process of implementing accessibility adaptations in Swedish authorities and highlighted that the DOS-act has served as an awakening to foster greater understanding and standardized approaches to digital accessibility. It is important to note that this study is of limited scope, which makes it challenging to generalize to the majority of Swedish authorities. This emphasizes that future studies could be conducted with more agencies togain a broader perspective.
44

Barrierefreiheit durch Personalisierung und Kollaboration

Loitsch, Claudia, Weber, Gerhard 14 December 2012 (has links) (PDF)
1 EINLEITUNG In Deutschland ist Barrierefreiheit im Behindertengleichstellungsgesetz festgeschrieben, indem festgelegt wird, dass Lebensbereiche barrierefrei sind, sofern diese von Menschen mit einer Behinderung ohne besondere Erschwernis und ohne fremde Hilfe nutzbar sind. Dies gilt auch für die Zugänglichkeit von virtuellen Gemeinschaften und neuen Medien, indem bestehende Richtlinien für barrierefreie Webinhalte eingehalten werden sollen.
45

Extrakce strukturovaných dat z českého webu s využitím extrakčních ontologií / Extracting Structured Data from Czech Web Using Extraction Ontologies

Pouzar, Aleš January 2012 (has links)
The presented thesis deals with the task of automatic information extraction from HTML documents for two selected domains. Laptop offers are extracted from e-shops and free-published job offerings are extracted from company sites. The extraction process outputs structured data of high granularity grouped into data records, in which corresponding semantic label is assigned to each data item. The task was performed using the extraction system Ex, which combines two approaches: manually written rules and supervised machine learning algorithms. Due to the expert knowledge in the form of extraction rules the lack of training data could be overcome. The rules are independent of the specific formatting structure so that one extraction model could be used for heterogeneous set of documents. The achieved success of the extraction process in the case of laptop offers showed that extraction ontology describing one or a few product types could be combined with wrapper induction methods to automatically extract all product type offers on a web scale with minimum human effort.
46

Entity-level Event Impact Analytics / Analyse de l'impact des évenements au niveau des entités

Govind, . 12 December 2018 (has links)
Notre société est de plus en plus présente sur le Web. En conséquence, une grande partie des événements quotidiens a vocation à être numérisée. Dans ce cadre, le Web contient des descriptions de divers événements du monde réel et provenant du monde entier. L'ampleur de ces événements peut varier, allant de ceux pertinents uniquement localement à ceux qui retiennent l'attention du monde entier. La presse et les médias sociaux permettent d’atteindre une diffusion presque mondiale. L’ensemble de toutes ces données décrivant des événements sociétaux potentiellement complexes ouvre la porte à de nombreuses possibilités de recherche pour analyser et mieux comprendre l'état de notre société.Dans cette thèse, nous étudions diverses tâches d’analyse de l’impact des événements sociétaux. Plus précisément, nous abordons trois facettes dans le contexte des événements et du Web, à savoir la diffusion d’événements dans des communautés de langues étrangères, la classification automatisée des contenus Web et l’évaluation et la visualisation de la viralité de l’actualité. Nous émettons l'hypothèse que les entités nommées associées à un événement ou à un contenu Web contiennent des informations sémantiques précieuses, qui peuvent être exploitées pour créer des modèles de prédiction précis. À l'aide de nombreuses études, nous avons montré que l'élévation du contenu Web au niveau des entités saisissait leur essence essentielle et offrait ainsi une variété d'avantages pour obtenir de meilleures performances dans diverses tâches. Nous exposons de nouvelles découvertes sur des tâches disparates afin de réaliser notre objectif global en matière d'analyse de l’impact des événements sociétaux. / Our society has been rapidly growing its presence on the Web, as a consequence we are digitizing a large collection of our daily happenings. In this scenario, the Web receives virtual occurrences of various events corresponding to their real world occurrences from all around the world. Scale of these events can vary from locally relevant ones up to those that receive global attention. News and social media of current times provide all essential means to reach almost a global diffusion. This big data of complex societal events provide a platform to many research opportunities for analyzing and gaining insights into the state of our society.In this thesis, we investigate a variety of social event impact analytics tasks. Specifically, we address three facets in the context of events and the Web, namely, diffusion of events in foreign languages communities, automated classification of Web contents, and news virality assessment and visualization. We hypothesize that the named entities associated with an event or a Web content carry valuable semantic information, which can be exploited to build accurate prediction models. We have shown with the help of multiple studies that raising Web contents to the entity-level captures their core essence, and thus, provides a variety of benefits in achieving better performance in diverse tasks. We report novel findings over disparate tasks in an attempt to fulfill our overall goal on societal event impact analytics.
47

Dlouhodobé uchování webového obsahu / Long-term Preservation of Web Content

Kvasnica, Jaroslav January 2016 (has links)
This work describes the long term preservation of digital documents, particularly websites. The aim of this work is to give an explanation of the long term preservation, to define the differences between various approaches and to describe long term preservation of web content possibilities such as migration or emulation. It also explains risks and challenges of these strategies. It discusses new problems which the long term preservation aim leads to. It also describes possible solutions as well as it describes the situation in selected significant foreign institutions. The main aim of this work is detailed analysis of long term preservation strategy in theNational Library of the Czech Republic, which is the only institution engaged in the preservation of Czech web. The process of data preparation, metadata creation and data storing in the long term repository of the Czech National Library is thoroughly described, including examples and their explanation. Future actions of long term preservation in the Czech Web Archive are articulated in the conclusion. Powered by TCPDF (www.tcpdf.org)
48

Accessibility Guidelines im Kontext von „Studium und Behinderung“

Ruth, Diana 23 September 2004 (has links)
Was bedeutet Barrierefreiheit im Internet? Welche Elemente auf einer Website werden zur Barriere für Menschen mit Sehbehinderungen oder Blindheit? Was sind Barrieren für gehörlose Menschen und was sind Barrieren für körperlich eingeschränkte Menschen? Und wie können diese Barrieren erkannt und abgebaut werden? Welche Lösungsmöglichkeiten gibt es und mit welchem Aufwand sind diese umzusetzen? Die Arbeit zeigt am Beispiel einer Plattform für Studierende mit Behinderungen an der TU Dresden Barrieren im täglichen Umgang mit elektronischen Dienstleistungen für betroffene Nutzer auf. Dafür wird die Anwendung verschiedener anerkannter Evaluationsmethoden am Praxisobjekt demonstriert und mit echten Nutzer-Interviews ergänzt. Auf der Grundlage der erhobenen Daten wird das der Plattform zugrundeliegende Kontextszenario qualifiziert und erweitert und ein Redesign durchgeführt. Die erfolgreiche Anwendung und Umsetzung der Richtlinien für Barrierefreiheit und Gebrauchstauglichkeit wird anschließend dokumentiert und demonstriert.
49

Barrierefreiheit durch Personalisierung und Kollaboration

Loitsch, Claudia, Weber, Gerhard January 2012 (has links)
1 EINLEITUNG In Deutschland ist Barrierefreiheit im Behindertengleichstellungsgesetz festgeschrieben, indem festgelegt wird, dass Lebensbereiche barrierefrei sind, sofern diese von Menschen mit einer Behinderung ohne besondere Erschwernis und ohne fremde Hilfe nutzbar sind. Dies gilt auch für die Zugänglichkeit von virtuellen Gemeinschaften und neuen Medien, indem bestehende Richtlinien für barrierefreie Webinhalte eingehalten werden sollen.
50

Information Retrieval Based on DOM Trees

Alarte Aleixandre, Julián 14 September 2023 (has links)
[ES] Desde hace varios años, la cantidad de información disponible en la web crece de manera exponencial. Cada día se genera una gran cantidad de información que prácticamente de inmediato está disponible en la web. Los buscadores e indexadores recorren diariamente la web para encontrar toda esa información que se ha ido añadiendo y así, ponerla a disposición del usuario devolviéndola en los resultados de las búsquedas. Sin embargo, la cantidad de información es tan grande que debe ser preprocesada con anterioridad. Dado que el usuario que realiza una búsqueda de información solamente está interesado en la información relevante, no tiene sentido que los buscadores e indexadores procesen el resto de elementos de las páginas web. El procesado de elementos irrelevantes de páginas web supone un gasto de recursos innecesario, como por ejemplo espacio de almacenamiento, tiempo de procesamiento, uso de ancho de banda, etc. Se estima que entre el 40% y el 50% del contenido de las páginas web son elementos irrelevantes. Por eso, en los últimos 20 años se han desarrollado técnicas para la detección de elementos tanto relevantes como irrelevantes de páginas web. Este objetivo se puede abordar de diversas maneras, por lo que existen técnicas diametralmente distintas para afrontar el problema. Esta tesis se centra en el desarrollo de técnicas basadas en árboles DOM para la detección de diversas partes de las páginas web, como son el contenido principal, la plantilla, y el menú. La mayoría de técnicas existentes se centran en la detección de texto dentro del contenido principal de las páginas web, ya sea eliminando la plantilla de dichas páginas o detectando directamente el contenido principal. Las técnicas que proponemos no sólo son capaces de realizar la extracción de texto, sino que, bien por eliminación de plantilla o bien por detección del contenido principal, son capaces de aislar cualquier elemento relevante de las páginas web, como por ejemplo imágenes, animaciones, videos, etc. Dichas técnicas no sólo son útiles para buscadores y rastreadores, sino que también pueden ser útiles directamente para el usuario que navega por la web. Por ejemplo, en el caso de usuarios con diversidad funcional (como sería una ceguera) puede ser interesante la eliminación de elementos irrelevantes para facilitar la lectura (o escucha) de las páginas web. Para hacer las técnicas accesibles a todo el mundo, las hemos implementado como extensiones del navegador, y son compatibles con navegadores basados en Mozilla o en Chromium. Además, estas herramientas están públicamente disponibles para que cualquier persona interesada pueda acceder a ellas y continuar con la investigación si así lo deseara. / [CA] Des de fa diversos anys, la quantitat d'informació disponible en la web creix de manera exponencial. Cada dia es genera una gran quantitat d'informació que immediatament es posa disponible en la web. Els cercadors i indexadors recorren diàriament la web per a trobar tota aqueixa informació que s'ha anat afegint i així, posar-la a la disposició de l'usuari retornant-la en els resultats de les cerques. No obstant això, la quantitat d'informació és tan gran que aquesta ha de ser preprocessada. Atés que l'usuari que realitza una cerca d'informació solament es troba interessat en la informació rellevant, no té sentit que els cercadors i indexadors processen la resta d'elements de les pàgines web. El processament d'elements irrellevants de pàgines web suposa una despesa de recursos innecessària, com per exemple espai d'emmagatzematge, temps de processament, ús d'amplada de banda, etc. S'estima que entre el 40% i el 50% del contingut de les pàgines web són elements irrellevants. Precisament per això, en els últims 20 anys s'han desenvolupat tècniques per a la detecció d'elements tant rellevants com irrellevants de pàgines web. Aquest objectiu es pot afrontar de diverses maneres, per la qual cosa existeixen tècniques diametralment diferents per a afrontar el problema. Aquesta tesi se centra en el desenvolupament de tècniques basades en arbres DOM per a la detecció de diverses parts de les pàgines web, com són el contingut principal, la plantilla, i el menú. La majoria de tècniques existents se centren en la detecció de text dins del contingut principal de les pàgines web, ja siga eliminant la plantilla d'aquestes pàgines o detectant directament el contingut principal. Les tècniques que hi proposem no sols són capaces de realitzar l'extracció de text, sinó que, bé per eliminació de plantilla o bé per detecció del contingut principal, són capaços d'aïllar qualsevol element rellevant de les pàgines web, com per exemple imatges, animacions, vídeos, etc. Aquestes tècniques no sols són útils per a cercadors i rastrejadors, sinó també poden ser útils directament per a l'usuari que navega per la web. Per exemple, en el cas d'usuaris amb diversitat funcional (com ara una ceguera) pot ser interessant l'eliminació d'elements irrellevants per a facilitar-ne la lectura (o l'escolta) de les pàgines web. Per a fer les tècniques accessibles a tothom, les hem implementades com a extensions del navegador, i són compatibles amb navegadors basats en Mozilla i en Chromium. A més, aquestes eines estan públicament disponibles perquè qualsevol persona interessada puga accedir a elles i continuar amb la investigació si així ho desitjara. / [EN] For several years, the amount of information available on the Web has been growing exponentially. Every day, a huge amount of data is generated and it is made immediately available on the Web. Indexers and crawlers browse the Web daily to find the new information that has been added, and they make it available to answer the users' search queries. However, the amount of information is so huge that it must be preprocessed. Given that users are only interested in the relevant information, it is not necessary for indexers and crawlers to process other boilerplate, redundant or useless elements of the web pages. Processing such irrelevant elements lead to an unnecessary waste of resources, such as storage space, runtime, bandwidth, etc. Different studies have shown that between 40% and 50% of the data on the Web are noisy elements. For this reason, several techniques focused on the detection of both, relevant and irrelevant data, have been developed over the last 20 years. The problems of identifying the relevant content of a web page, its template, its menu, etc. can be faced in various ways, and for this reason, there exist completely different techniques to address those problems. This thesis is focused on the development of information retrieval techniques based on DOM trees. Its goal is to detect different parts of a web page, such as the main content, the template, and the main menu. Most of the existing techniques are focused on the detection of text inside the main content of the web pages, mainly by removing the template of the web page or by inferring the main content. The techniques proposed in this thesis do not only extract text by eliminating the template or inferring the main content, but also extract any other relevant information from web pages such as images, animations, videos, etc. Our techniques are not only useful for indexers and crawlers but also for the user browsing the Web. For instance, in the case of users with functional diversity problems (such as blindness), removing noisy elements can facilitate them to read (or listen to) the web pages. To make the techniques broadly accessible to everybody, we have implemented them as browser extensions, which are compatible with Mozilla-based and Chromium-based browsers. In addition, these tools are publicly available, so any interested person can access them and continue with the research if they wish to do so. / Alarte Aleixandre, J. (2023). Information Retrieval Based on DOM Trees [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/196679

Page generated in 0.0965 seconds