• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4177
  • 1988
  • 833
  • 747
  • 601
  • 597
  • 581
  • 285
  • 196
  • 131
  • 114
  • 113
  • 73
  • 72
  • 54
  • Tagged with
  • 11711
  • 1971
  • 1496
  • 1342
  • 1268
  • 1187
  • 1117
  • 1049
  • 979
  • 961
  • 944
  • 935
  • 927
  • 890
  • 869
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
531

Adapting Hvistendahl's and Kahl's typographic legibility study to the World Wide Web

Gosse, Ross January 1999 (has links)
In 1975, J.K. Hvistendahl and Mary R. Kahl tested 200 individuals to determine if readers preferred serif type for the body text of stories in newspapers. Subjects read stories set in serif and sans serif type. They were timed and asked for their preference as to which typeface they felt was more legible. The researchers found that test subjects preferred serif type the body text in their newsprint. After comparing the time it took subjects to read stories, researchers found readers needed less time to read stories set in serif type than sans serif.Almost 25 years later, another generation of readers has emerged, and Web pages are commonplace among many newspapers today. Yet nothing has been done to determine if these same findings are true for the World Wide Web. This study set out to do just that.Two hundred subjects were recruited for this study, each one placed into one of four groups: male student, male non-student, female student, and female non-student. Each subject was asked to read two 325-word stories, each on its own World Wide Web page. One story was set in a serif typeface, the other set in a sans serif typeface. Subjects were unobrusively timed with a stopwatch as they read each story. After reading the two stories, they were asked which typeface they felt was more legible, serif or sans serif.Overall, readers showd no statistically significant preference for serif or sans serif type in body text on the World Wide Web. The data was tested with ANOVA while frequencies and were also gathered. Only one statistically significant interaction surfaced which found that male students, who preferred sans serif type, took a statistically significant longer time to read online stories set in serif type. / Department of Journalism
532

Generación de una metodología de detección de website keyobjects basado en métricas de centralidad de teoría de grafos

Dupré Casanova, Jorge Daniel January 2014 (has links)
Ingeniero Civil Industrial / Este trabajo de título tiene como objetivo fundamental analizar el aporte que se pueda generar a una metodología al introducir un análisis con medidas de centralidad de Teoría de Grafos, para la detección de Objetos Claves dentro de un sitio web. Para lograr esto existen una serie de objetivos específicos que permitirán concluir finalmente con respecto a la hipótesis de investigación planteada, destacando que se pretende incorporar herramientas que hasta ahora no se habían utilizado para este campo. Este trabajo es parte del procedimiento para optar al título de Ingeniero Civil Industrial, siendo parte de un proyecto FONDEF llamado Plataforma informática basada en web-intelligence y herramientas de análisis de exploración visual para la mejora de la estructura y contenido de sitios web (AKORI: Advanced Kernel for Ocular Research and Web Intelligence). AKORI es un proyecto co-creado entre el departamento de Ingeniería Industrial y la Facultad de Medicina de la Universidad de Chile. La justificación de este trabajo está relacionado con el crecimiento que ha sucedido en la web durante los últimos años. Este aumento exponencial de la cantidad de usuarios y páginas de Internet, ha llevado a que muchas empresas que basan su modelo de negocios en sus sitios web, tengan interés por destacar en la nube y tener los sitios optimizados para sus respectivos usuarios, produciendo una nueva rama de investigación sociológica, para ello se han desarrollado diversas metodologías que apuntan a mejorar el contenido y la estructura de los sitios web. Metodologías que tienen por lo general altos grados de subjetividad, siendo poco eficientes para definir exactamente las zonas u objetos que llaman más la atención para los distintos usuarios. La hipótesis de investigación propuesta plantea que es posible mejorar la metodología creada por Juan D. Velásquez al evaluar con medidas de centralidad de teoría de grafos, outputs obtenidos por experimentos ya realizados a 23 sujetos que navegaron libremente en la página web del MBA del departamento de Ingeniería Industrial, experimento que utilizó herramientas de eye-tracking, dilatación pupilar y EEG. Al mejorar la detección de Website Keyobjects aumentando la eficiencia de la metodología con el modelo propuesto, se estaría creando un pilar fundamental para el proyecto AKORI. Los WKO clasificados con esta metodología se compararon con otros trabajos previos y fueron evaluados finalmente por el webmaster determinando así la eficiencia de este nuevo trabajo y estableciendo las futuras líneas de acción a seguir. Si bien se demostró la hipótesis de investigación planteada, se cree que se podría desarrollar un mejor trabajo mejorando ciertas propuestas que se declaran en la parte final de este informe.
533

Diseño e implementación de una plataforma de estudio de calidad de experiencia, en streaming de video

Carrera Troncoso, Jaime Andrés January 2015 (has links)
Ingeniero Civil en Computación / El auge de la distribución de contenido multimedia en los últimos años ha revolucionado la industria de las telecomunicaciones, produciendo consumidores más exigentes, llevando al límite a la actual infraestructura de redes y generando una percepción transversal de calidad sobre los servicios. Como consecuencia de ésto, la tecnología ha debido adaptarse rápidamente a los nuevos requerimientos, generando más y mejores opciones para crear aplicaciones que brinden la calidad solicitada. Ante la demanda de los consumidores por contar con un servicio óptimo, nace la necesidad de medir y comparar la calidad del servicio entregada, y contrastarla con experiencia del usuario al momento de que éste reciba la información, para responder adecuadamente ante los requerimientos planteados. El presente tema de memoria tiene por objetivo implementar una plataforma de código abierto que facilite la medición de ambos parámetros de manera conjunta. La Calidad de Servicio, que hace referencia a las capacidades técnicas al momento de transmitir datos por una red y la Calidad de Experiencia, que establece el cómo percibe subjetivamente el usuario el contenido. La solución fue diseñada en base a diferentes componentes. Primero, se diseñó un subsistema que simula los distintos tipos de redes de conexión, a los que un usuario puede estar conectado al momento de consumir contenido multimedia. Luego, se desarrolló un sistema para que un usuario pueda solicitar la creación de contenido multimedia, simulando los escenarios de conexión recién descritos. Finalmente, se estableció una metodología en donde el usuario pueda evaluar su experiencia al momento de consumir el material en cuestión. Como resultado se obtiene una plataforma web capaz de generar contenido multimedia en demanda, que logra medir la opinión del usuario en base a los parámetros que éste asigna. La plataforma implementada permite que a futuro se realicen diferentes estudios de manera estandarizada y con posibles mejoras técnicas que ayuden el desarrollo de las pruebas implementadas. Al ser una plataforma de código abierto, se permite que cualquier desarrollador o empresa enriquezca las funciones del actual sistema.
534

Diseño y desarrollo de un módulo de clasificación de páginas Web en base a las características de su contenido utilizando técnicas de minería de datos

Falloux Costa, Gonzalo Alejandro January 2016 (has links)
Ingeniero Civil Industrial / Este trabajo de título tiene por objetivo principal diseñar y desarrollar un módulo de clasificación de páginas web en base a las características de su contenido utilizando técnicas de minería de datos, lo que se traduce en la utilización de contenido HTML, análisis de texto visible de la página web y la incorporación de una variable que refleja la seguridad web según SSL como variables predictivas para la clasificación de páginas web. El trabajo se realiza enmarcado en el proyecto AKORI del Web Intelligence Centre de la Facultad de Ciencias Matemáticas de la Universidad de Chile, el cual pretende desarrollar una plataforma computacional para mejorar el diseño y contenido de sitios web mediante el estudio de variables fisiológicas y la aplicación de minería de datos. La plataforma consiste en la implementación de un modelo que sea capaz de predecir mapas tanto de fijación ocular como de dilatación pupilar de manera rápida y precisa. En esta etapa del proyecto AKORI es necesario mejorar el desempeño de las predicciones descritas, las cuales son realizadas en sitios web reales, de diseño y contenido muy variado. Además el comportamiento que se desea predecir es sobre usuarios de los que se desconoce su motivación para la navegación, lo cual a su vez altera tanto el comportamiento ocular como sus patrones de navegación. Dado lo anterior se propone como hipótesis de investigación: Es posible clasificar páginas web en base a las características de su contenido para solucionar dos problemas fundamentales, por un lado la clasificación agrupa páginas web maximizando la varianza de páginas web entre clases y minimizando la varianza intra clase, lo cual debiese mejorar considerablemente el desempeño del modelo, puesto que predecir dentro de una clase en la cual los ejemplos tienen mayor similitud disminuye el rango de error, disminuyendo, a su vez el error estándar en la predicción. Por otro lado entrega información sobre la motivación del usuario en la web si se conoce el servicio que ofrece la página web, lo que si bien no es información completa para describir el comportamiento del usuario, puede ser una importante variable de apoyo. Para el desarrollo del modelo se utiliza un juego de datos de 138 páginas web, escogidas según tráfico de usuarios Chilenos y luego se implementan cinco algoritmos de minería de datos para clasificar entre siete clases de páginas web. El algoritmo Naive Bayes obtiene el mejor desempeño, logrando un accuracy de 78.67%, lo que permite validar la hipótesis de investigación. Finalmente se concluye que se cumplen todos los resultados esperados y la hipótesis de investigación con resultados satisfactorios considerando la investigación actual.
535

Le rôle de l'agent dans un processus de création informatique : une étude de cas

Leclerc-Gagné, Philippe January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
536

Job search portal

Sowmya, Mathukumalli January 1900 (has links)
Master of Science / Department of Computer Science / Mitchell L. Neilsen / Finding jobs that best suits the interests and skill set is quite a challenging task for the job seekers. The difficulties arise from not having proper knowledge on the organization’s objective, their work culture and current job openings. In addition, finding the right candidate with desired qualifications to fill their current job openings is an important task for the recruiters of any organization. Online Job Search Portals have certainly made job seeking convenient on both sides. Job Portal is the solution where recruiter as well as the job seeker meet aiming at fulfilling their individual requirement. They are the cheapest as well as the fastest source of communication reaching wide range of audience on just a single click irrespective of their geographical distance. The web application “Job Search Portal” provides an easy and convenient search application for the job seekers to find their desired jobs and for the recruiters to find the right candidate. Job seekers from any background can search for the current job openings. Job seekers can register with the application and update their details and skill set. They can search for available jobs and apply to their desired positions. Android, being open source has already made its mark in the mobile application development. To make things handy, the user functionalities are developed as an Android application. Employer can register with the application and posts their current openings. They can view the Job applicants and can screen them according to the best fit. Users can provide a review about an organization and share their interview experience, which can be viewed by the Employers.
537

Inteligência cibernética e uso de recursos semânticos na detecção de perfis falsos no contexto do Big Data /

Oliveira, José Antonio Maurilio Milagre de. January 2016 (has links)
Orientador: José Eduardo Santarem Segundo / Banca: Ricardo César Gonçalves Sant'Ana / Banca: Mário Furlaneto Neto / Resumo: O desenvolvimento da Internet transformou o mundo virtual em um repositório infindável de informações. Diariamente, na sociedade da informação, pessoas interagem, capturam e despejam dados nas mais diversas ferramentas de redes sociais e ambientes da Web. Estamos diante do Big Data, uma quantidade inacabável de dados com valor inestimável, porém de difícil tratamento. Não se tem dimensão da quantidade de informação capaz de ser extraída destes grandes repositórios de dados na Web. Um dos grandes desafios atuais na Internet do "Big Data" é lidar com falsidades e perfis falsos em ferramentas sociais, que causam alardes, comoções e danos financeiros significativos em todo o mundo. A inteligência cibernética e computação forense objetivam investigar eventos e constatar informações extraindo dados da rede. Por sua vez, a Ciência da Informação, preocupada com as questões envolvendo a recuperação, tratamento, interpretação e apresentação da informação, dispõe de elementos que quando aplicados neste contexto podem aprimorar processos de coleta e tratamento de grandes volumes de dados, na detecção de perfis falsos. Assim, por meio da presente pesquisa de revisão de literatura, documental e exploratória, buscou-se revisar os estudos internacionais envolvendo a detecção de perfis falsos em redes sociais, investigando técnicas e tecnologias aplicadas e principalmente, suas limitações. Igualmente, apresenta-se no presente trabalho contribuições de áreas da Ciência da Informação e critério... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The development of the Internet changed the virtual world in an endless repository of information. Every single day, in an information-society, people change, catch and turn out files in different tools of social network and Web surrounding. We are in front of "The Big Data", an endless amount of data with invaluable, but hard treating. It doesn't have some dimension of measure information to be able of extracting from these big Web data repositories. One of the most challenges nowadays on the Internet from the "Big Data" is to identify feelings, anticipating sceneries dealing with falsehood and false profiles social tools, which cause fanfare, upheavals and significant financial losses worldwide in front of our true scene. The cyber intelligence has by objective to look for events and finding information, subtracting dates from the Web. On the other hand, the Information Science, worried with the questions involving recovery, processing, interpretation and presentation of information that has important areas of study capable of being applied in this context hone the collection and treatment processes of large volumes of information (datas). Thus, through this research literature review, documentary and exploratory, the researcher aimed to review the International studies implicating the analysis of large volumes of data on social networking tools in falsehoods detection, investigating applied techniques and technologies and especially their limitations. Based on the identifi... (Complete abstract click electronic access below) / Mestre
538

TicTacTraining : Coordination of multiple clients in a web based exergame / TicTacTraining: Coordination of multiple clients in a web based exergame

Hedlund, Nicklas January 2019 (has links)
The traditional way to coordinate multiple clients in a multiplayer based game on multiple platforms is to create an implementation on a per-platform basis - resulting in often four different implementations, one for each major platform - ie. iOS, Android, Windows, and Linux based operating systems. This report examines the possibility of replacing multiple so called “native apps” with a single web based implementation - granting users access on all devices that supports modern browsers, and discusses what tools were used in the development of the application and why. / Det vanliga sättet att hantera multipla klienter i spel med flerspelarlägen är att utveckla unika implementationer på en per-plattform basis - alltså att samma applikation kräver en unik implementation för var plattform som skall stödjas. Vanligtvis görs en unik implementation för iOS, Android, Windows och Unix-baserade operativsystem vardera. Denna rapport undersöker möjligheten att ersätta dessa implementationer med en unison webbaserad implementation som tillåter alla enheter ​med stöd för moderna webbläsare att använda applikationen och diskuterar vilka verktyg som använts och varför.
539

Servidor web distribuído com diferenciação de serviços - implementação e avaliação de um protótipo / Distributed Web Server with service differentiation - a prototype implementation and evaluation

Messias, Valter Rogério 19 October 2007 (has links)
Este trabalho apresenta um estudo, implementação e avaliação em ambiente real de um protótipo de servidor Web com diferenciação de serviços (SWDS) para provisão de QoS relativa em servidores Web. Para tanto foram considerados algoritmos de reserva de recursos e escalonamento baseado em prioridades para prover diferenciação entre as classes de serviço, além de mecanismos de controle de admissão a fim de controlar a carga no sistema. A meta é oferecer melhor tratamento para requisições de maior prioridade, sem prejudicar em excesso as requisições de prioridade menor. Foi observado que os algoritmos de reserva de recursos (RSV e RSVadap) são eficientes para prover diferenciação entre as classes consideradas, no entanto seus desempenhos não foram satisfatórios em alguns casos, tanto devido a arquitetura em que foram implementados, como por motivos inerentes à própria natureza do algoritmo. O algoritmo de escalonamento baseado em prioridades considerado (PriProcess), mostrou-se eficiente tanto no sentido de prover diferenciação de serviços entre as classes, como na questão de desempenho, com a classe de maior prioridade sempre sendo melhor atendida em relação à classe de menor prioridade. Também foi alvo do estudo a criação de um mecanismo de controle de admissão com diferenciação de serviços. Os resultados alcançados sinalizam uma melhora em termos de tempos de respostas e número de requisições completadas para a classe de maior prioridade / This work presents a study, implementation and evaluation in real environment of a Web server architecture with service differentiation (SWDS) for provision of relative QoS in Web servers. Algorithms of resources reservation and scheduling based on priorities were considered to provide service differentiation among the request classes, besides implementation of a mechanism for admission control in order to control the load in the system. The goal is to offer better treatment for higher priority requests without harming in excess lower priority ones. It was observed that the algorithms for resource reservation (RSV and RSVapap) are efficient to provide differentiation among the considered classes, however their performance was not satisfactory in some cases, due to both, the archtectures through which they were implemented and the specific features of the algorithm nature. The considered scheduling algorithm based on priorities (PriProcess) was efficient both in the sense of providing service differentiation among the classes and with regards to performance, with the higher priority class always being better served than the lower priority one. It was also studied the creation of a mechanism for admission control with service differentiation. The achieved results show an improvement in terms of response times and the number of completed requests for the higher priority class
540

Validação de padrões de web services transacionais / Transactional web service pattern validation

Nunes, Paulo Roberto de Araújo França 03 June 2011 (has links)
A velocidade das mudanças e a necessidade de informações disponíveis em vários meios têm feito com que os sistemas atuais se integrem cada vez mais. Neste cenário, arquiteturas orientadas a serviços e Web Services ganham evidência. Por utilizarem padrões já bem difundidos, por exemplo XML (extended markup language), Web Services se destacam pela interoperabilidade e dinamismo, disponibilizados através da Internet e utilizado em ambientes heterogêneos. Contudo, isso afeta significativamente atributos não funcionais, por exemplo, confiabilidade, disponibilidade, entre outros. Para Web Services, além de todos os problemas existentes no paradigma de programação distribuída, temos ainda o problema de que erros em um determinado serviço não devem ser propagados para os demais. Dentre as diversas formas de se contornar o problema, existe a definição de padrões transacionais que visam delinear regras específicas para a comunicação entre os serviços. O objetivo do trabalho é identificar casos de testes que permitam validar a adequação, tanto do serviço quanto da aplicação de padrões definidos, de modo a garantir uma maior confiabilidade do sistema como um todo. Para isso, é avaliada a aplicabilidade de técnicas de perturbação e mutação de dados com relação ao padrão estabelecido. Como resultado, obtém-se um subconjunto das técnicas que possuem potencial de identificação de falhas nesse cenário. / Software technology has become essential since it is available in most places. Powered by Internet, nowadays, information quickly flows throw systems. Web Services provide a standard way to meet these objectives, as they use common communication pattern like XML and HTTP. The use of Web Services brings many benefits. On the other hand, it also brings some issues about reliability, availability and other non functional problems. Transactional patterns are an alternative to outline such problems. This study aims to find an effective way to certificate the correct use of those patterns by applying perturbation and mutation testing techniques. As work result, it is expected to determine which of techniques are applicable.

Page generated in 0.0374 seconds