• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 92
  • 22
  • 21
  • 17
  • 16
  • 15
  • 9
  • 6
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 210
  • 210
  • 48
  • 44
  • 39
  • 38
  • 35
  • 30
  • 29
  • 29
  • 21
  • 20
  • 17
  • 16
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Comprendre et manipuler les données ouvertes de l'administration publique : la situation au Gouvernement du Québec et à la Ville de Montréal

Dickner, Nicolas 04 1900 (has links)
Ce mémoire cherche à faire le point sur l’ouverture des données de l’administration publique, qui s’est généralisée depuis de 2009. Les données ouvertes s’inscrivent dans le mouvement du droit d’accès à l’information, mais se caractérisent par leur caractère proactif : plutôt que d’être diffusée à la demande, les données ouvertes sont divulguées en ligne, généralement regroupées sur un portail. L’ouverture des données vise plusieurs objectifs, dont notamment l’instauration d’un régime de transparence au sein de l’administration publique, et la stimulation de l’activité économique et de la participation citoyenne. Les applications des données ouvertes ont surtout été logicielles, mais nous avons repéré plusieurs sources qui démontrent le potentiel analytique du phénomène. Pour ce faire, les données doivent néanmoins répondre à plusieurs conditions : format, qualité et couverture appropriés, licence adéquate, etc. Nous avons examiné les politiques et pratiques sur deux sites québécois — Données Québec et le portail de données ouvertes de la ville de Montréal — afin de voir si ces conditions étaient respectées. Bien que la situation soit essentiellement convenable, nous avons noté certaines pratiques susceptibles de nuire à la réutilisation des données. Afin d’exposer ces problèmes et de proposer des stratégies pour les résoudre, nous avons procédé à des opérations de nettoyage et d’intégration de données. Nous expliquerons enfin l’intérêt analytique du croisement de plusieurs sources de données, en dépit des difficultés que présente cette approche. / The goal of this masters thesis is to assess the opening of public sector data, a phenomenon that became widespread since 2009. Open data stem from the freedom of information movement, with however a proactive dimension : rather than being provided on demand, open data are published online and usually centralized on a portal. Open data have several goals, in particular the promotion of transparency within the public sector, and the stimulation of both economic activity and civic participation. Open data have been mostly used to create software applications, but we found several sources that demonstrate the analytic potential of the phenomenon. However, to realize this potential, open data must comply with several conditions, such as appropriate format, quality and coverage, adequate user license, etc. We looked into the policies and practices of two Quebec portals — Données Québec and Montreal City open data portal — to see if these conditions were met. While the overall situation was acceptable, we noted some practices that could be detrimental to the reuse of data. In order to illustrate these problems and offer possible strategies to solve them, we performed data cleaning and integration. Finally, we explain the analytic gain of the data integration, despite the difficulties of the operation.
192

Développement numérique, territoires et collectivités : vers un modèle ouvert / Digital development, territories and public bodies : towards an open model

Houzet, Sophie 23 April 2013 (has links)
Depuis une vingtaine d'année, les Technologies de l'Information et de la Communication (TIC) se diffusent dans notre quotidien autant que dans les territoires. Leur appropriation massive, combinée à la déréglementation des télécommunications et à l'évolution continue du web pose la question de leurs effets sur les organisations spatiales. L'objet de cette recherche est d'apporter aux territoires une lecture de leur évolution dans les domaines de l'aménagement numérique, de l'innovation dans les services et dans l'appropriation des usages de TIC, ainsi que dans la co-construction de biens publics et la création d'écosystèmes basés sur les valeurs d'une " Société de la Connaissance ". Une première partie est consacrée au contexte très évolutif de la diffusion des TIC dans la société. Par une approche combinant des dimensions législatives, technologiques, économiques et organisationnelles, les enjeux de la Société des Connaissances sont posés au niveau national et en référence aux cadres d'orientation stratégique européens. Une seconde partie analyse la diffusion des TIC dans les territoires. Celle-ci ne relevant pas d'une simple présence ou absence des technologies disponibles, elle rend aussi compte des stratégies commerciales d'opérateurs, des priorités politiques et d'appropriations différenciées des usages. Tous ces éléments n'opèrent pas au même rythme et ne s'articulent pas de manière équivalente. La méthode est basée sur l'analyse des réseaux en trois niveaux, explicitée par G. Dupuy en 1991. La douzaine d'indicateurs pris en compte pour cette analyse et ont été choisis pour leur caractère structurant : déploiement de Réseaux d'Initiative Publique, localisation des entreprises de TIC, mise en réseau d'Espaces Publics Numériques,... Des croisements de ces indicateurs permettent de brosser le paysage de la diffusion spatiale des TIC sur une période de 10 ans (2002- 2012). La complexité induite ne pouvait être explicitée sans adopter une approche systémique pour modéliser l'évolution des territoires dans le temps ainsi que les enjeux auxquels les décideurs sont confrontés. Le socle théorique de référence de la troisième partie est celui de l'approche systémique dont les travaux de Joël de Rosnay dans Le Macroscope (1975), ont été précurseurs de l'évolution de la société avec les TIC. L'objectif est d'apporter des clés de lecture aux décideurs et de susciter une approche globale de l'évolution de leurs territoires dans une Société des Connaissances. A l'heure où le web évolue vers le web sémantique, où les modèles de création et diffusion de l'énergie évoluent vers des modèles distribués, un changement de modèle dans les réseaux de télécommunication est également possible : d'un modèle dominant " intégré " orienté opérateur, vers un modèle transversal, " ouvert ", orienté utilisateur. Les choix d'aujourd'hui qui engageront les territoires de demain sont explicités par la modélisation systémique. / Over the past twenty years or so, Information and Communications Technology (ICT) has spread into our everyday lives and throughout our land. Its mass take-up, combined with the deregulation of telecommunications and the continuous development of the Internet, raise the issue of its impact on spatial and territorial organisation. The object of this research is to offer particular areas an interpretation of what has changed for them in the fields of digital planning, service innovation and the take-up of ICT facilities, as well as in the joint construction of public goods and the creation of ecosystems based on the values of the knowledge society. The first part is devoted to the fast-moving context of the spread of ICT throughout society. Employing an approach that combines legislative, technological, economic and organisational dimensions, the challenges of the knowledge society are examined at a national level and with reference to European strategic policy frameworks. The second part analyses the geographical distribution of ICT, which does not equate merely to whether the technologies available are present or absent. It also addresses operators' commercial strategies, political priorities and the differential take-up of use. Not all these factors operate at the same pace or are structured in the same way. The methodological basis is a three-tier analysis of networks, presented by G. Dupuy in 1991. The dozen indicators that contribute to this analysis were selected for their structural character: roll-out of alternative PPP broadband networks, location of ICT businesses, networking of Digital Public Spaces, deployment of e-administration service platforms, pooling of geographical data, digital sector leadership, access to public data etc. The intersections between these indicators have allowed a landscape to be painted of the spatial distribution of ICT within France over time, spanning a 10-year period between 2002 and 2012. The complexity generated could not be explained in detail without adopting a systemic approach so as to model the development of different areas over time and without citing the challenges that face decision-makers. The theoretical benchmark used as the basis for part three arose from a systemic approach, for which the work of Joël de Rosnay in "Le Macroscope" (1975) was a precursor as regards the development of an ICT-equipped society. The objective is to provide decision-makers with keys to assist comprehension as well as to encourage a global approach to the development of their areas under the knowledge society. At a time when the Internet is evolving towards a semantic web, whereby energy creation and distribution models are becoming distributed models, it is possible to change the model of telecoms networks: from the dominant, operator-oriented "integrated" model towards a more horizontal, user-oriented "open" model. A systems modelling approach explains today's choices which will affect the territories of tomorrow.
193

Traitement de requêtes SPARQL sur des données liées / SPARQL distributed query processing over linked data

Macina, Abdoul 17 December 2018 (has links)
De plus en plus de sources de données liées sont publiées à travers le Web en s'appuyant sur les technologies du Web sémantique, formant ainsi un large réseau de données distribuées. Cependant il est difficile pour les consommateurs de données de profiter de la richesse de ces données, compte tenu de leur distribution, de l'augmentation de leur volume et de l'autonomie des sources de données. Les moteurs fédérateurs de données permettent d'interroger ces sources de données en utilisant des techniques de traitement de requêtes distribuées. Cependant, une mise en œuvre naïve de ces techniques peut générer un nombre considérable de requêtes distantes et de nombreux résultats intermédiaires entraînant ainsi un long temps de traitement des requêtes et des communications réseau coûteuse. Par ailleurs, la sémantique des requêtes distribuées est souvent ignorée. L'expressivité des requêtes, le partitionnement des données et leur réplication sont d'autres défis auxquels doivent faire face les moteurs de requêtes. Pour répondre à ces défis, nous avons d'abord proposé une sémantique des requêtes distribuées compatible avec les standards SPARQL et RDF qui préserve l’expressivité de SPARQL. Nous avons ensuite présenté plusieurs stratégies d'optimisation pour un moteur de requêtes fédérées qui interroge de manière transparente des sources de données distribuées. La performance de ces optimisations est évaluée sur une implémentation d’un moteur de requêtes distribuées SPARQL / Driven by the Semantic Web standards, an increasing number of RDF data sources are published and connected over the Web by data providers, leading to a large distributed linked data network. However, exploiting the wealth of these data sources is very challenging for data consumers considering the data distribution, their volume growth and data sources autonomy. In the Linked Data context, federation engines allow querying these distributed data sources by relying on Distributed Query Processing (DQP) techniques. Nevertheless, a naive implementation of the DQP approach may generate a tremendous number of remote requests towards data sources and numerous intermediate results, thus leading to costly network communications. Furthermore, the distributed query semantics is often overlooked. Query expressiveness, data partitioning, and data replication are other challenges to be taken into account. To address these challenges, we first proposed in this thesis a SPARQL and RDF compliant Distributed Query Processing semantics which preserves the SPARQL language expressiveness. Afterwards, we presented several strategies for a federated query engine that transparently addresses distributed data sources, while managing data partitioning, query results completeness, data replication, and query processing performance. We implemented and evaluated our approach and optimization strategies in a federated query engine to prove their effectiveness.
194

Inhaltsbasierte Erschließung und Suche in multimedialen Objekten

Sack, Harald, Waitelonis, Jörg 25 January 2012 (has links)
Das kulturelle Gedächtnis speichert immer gewaltigere Mengen von Informationen und Daten. Doch nur ein verschwindend geringer Teil der Inhalte ist derzeit über digitale Kanäle recherchierbar und verfügbar. Die Projekte mediaglobe und yovisto ermöglichen, den wachsenden Bestand an audiovisuellen Dokumenten auffindbar und nutzbar zu machen und begleiten Medienarchive in die digitale Zukunft. mediaglobe hat das Ziel, durch automatisierte und semantische Verfahren audiovisuelle Dokumente zur deutschen Zeitgeschichte zu erschließen und verfügbar zu machen. Die Vision von mediaglobe ist ein web-basierter Zugang zu umfassenden digitalen AV-Inhalten in Medienarchiven. Dazu bietet mediaglobe zahlreiche automatisierte Verfahren zur Analyse von audiovisuellen Daten, wie z.B. strukturelle Analyse, Texterkennung im Video, Sprachanalyse oder Genreanalyse. Der Einsatz semantischer Technologien verknüpft die Ergebnisse der AV-Analyse und verbessert qualitativ und quantitativ die Ergebnisse der Multimedia-Suche. Ein Tool zum Rechtemanagement liefert Informationen über die Verfügbarkeit der Inhalte. Innovative und intuitiv bedienbare Benutzeroberflächen machen den Zugang zu kulturellem Erbe aktiv erlebbar. mediaglobe vereinigt die Projektpartner Hasso-Plattner Institut für Softwaresystemtechnik (HPI), Medien-Bildungsgesellschaft Babelsberg, FlowWorks und das Archiv der defa Spektrum. mediaglobe wird im Rahmen des Forschungsprogramms »THESEUS – Neue Technologien für das Internet der Dienste« durch das Bundesministerium für Wirtschaft und Technologie gefördert. Die Videosuchmaschine yovisto hingegen ist spezialisiert auf Aufzeichnungen akademischer Lehrveranstaltungen und implementiert explorative und semantische Suchstrategien. yovisto unterstützt einen mehrstufigen 'explorativen' Suchprozess, in dem der Suchende die Möglichkeit erhält, den Bestand des zugrundeliegenden Medienarchivs über vielfältige Pfade entsprechend seines jeweiligen Interesses zu erkunden, so dass am Ende dieses Suchprozesses Informationen entdeckt werden, von deren Existenz der Suchende bislang nichts wusste. Um dies zu ermöglichen vereinigt yovisto automatisierte semantische Medienanalyse mit benutzergenerierten Metadaten zur inhaltlichen Erschließung von AV-Daten und ermöglicht dadurch eine punktgenaue inhaltsbasierte Suche in Videoarchiven.
195

Análisis de datos colaborativos e inteligencia de negocio: aplicación al sector turístico

Bustamante Martínez, Alexander Armando 25 January 2021 (has links)
[ES] Desde hace varias décadas vivimos en lo que los académicos e industriales han convenido llamar la era de la información y economía del conocimiento, ambas caracterizadas, entre otras cosas, por el rol preponderante que ocupan tanto la información como el conocimiento en el quehacer y en los procesos, tanto productivos como de gestión, de las organizaciones. La información y el conocimiento han pasado de ser un recurso más en las organizaciones a ser uno de los principales activos que éstas poseen y utilizan para tomar decisiones, mejorar sus procesos, comprender el entorno y obtener una ventaja competitiva. Pero, para disfrutar de todos estos beneficios, se hace necesario una gestión pro-activa e inteligente de los datos. Esta última se hace más necesaria en el contexto actual en donde la cantidad de datos disponibles sobrepasa la capacidad del hombre para analizarlos. Es en este contexto donde la Inteligencia de Negocios cobra especial importancia, ya que tiene como propósito tomar datos, generalmente, desde diferentes fuentes, integrarlos y procesarlos, dejándolos listos para posteriores tareas de análisis. Paralelo al lugar importante que ocupa la inteligencia de negocios, está la contribución de la Web 2.0 en la generación de nuevo contenido. La Web 2.0 ha sido uno de los desencadenantes en la producción de datos a través de la internet convirtiéndose así en una fuente valiosa de datos sobre lo que las personas hacen, sienten y desean. Tal es el caso de plataformas como Twitter, que permite a las personas expresar su opinión sobre cualquier tema de interés u OpenStreetMap, que facilita la creación y consulta de información geográfica de manera colaborativa, entre otras. Esta tesis gira en torno al uso de datos colaborativas y la utilización de la tecnología de la Inteligencia de Negocio para soportar el proceso de toma de decisiones, aplicado, concretamente, al sector turístico. Aunque el enfoque de tratamiento de los datos descrito en esta tesis puede ser utilizado, con ligeras adaptaciones, para trabajar en otros dominios, se seleccionó el turismo por ser uno de las principales actividades económicas a nivel mundial. Tomando como referencia el año 2019, este sector económico creció en un 3.5 % por encima de la economía global que creció un 2.5 %, generó 330 millones de empleos (1 de cada 10) y representó el 10.3 % del producto interno bruto global. En primer lugar, se realizó un análisis de las fuentes de datos colaborativas que pueden aportar conocimiento para el análisis de este sector y se seleccionaron cuatro fuentes de datos: OpenStreetMap y Twitter, ya nombradas y Tripadvisor y Airbnb para la información sobre alojamientos. Con las cuatro fuentes de datos colaborativas identificadas y utilizando la Inteligencia de Negocio como soporte tecnológico, se creó una plataforma responsable de todo el proceso, el cual abarca la extracción de datos de las diferentes fuentes, su integración en un formato consistente, su procesamiento y estructuración para ser utilizados en tareas de análisis y visualización de los resultados del análisis. La plataforma construida se denomina BITOUR. BITOUR integra la propuesta de un modelo de BI para manejar datos geoespaciales, abiertos, combinados con contenido de redes sociales (colaborativos) junto con la propuesta de una serie de algoritmos para la identificación de los turistas y residentes de los destinos, la detección de usuarios no reales y la asignación de los tuits a los lugares dentro de un destino. La integración de datos colaborativos, junto con los algoritmos, en una plataforma de Inteligencia de negocio representa una fuente potencial de valioso conocimiento que puede ser aprovechado en el sector turismo para conocer las actividades que realizan los turistas en un destino, las opiniones sobre un destino particular y sus atracciones, los periodos del año más frecuentados por los turistas según la nacionalidad, entre muchas otras preguntas. BITOUR permite definir, interactivamente, un destino a analizar, cargar datos desde diferentes tipos de fuentes (espaciales y de opinión, entre otras), ejecutar rutinas que asocian opiniones a lugares e identifican turistas entre los datos recopilados, así como visualizar los datos a través de la misma plataforma. BITOUR permite, entre otras cosas, la creación de tablas y gráficos dinámicos que posibilitan manipular los resultados de todos los cálculos que en la plataforma se han realizado. De esta manera, se pueden analizar tendencias de los turistas, tener un menor tiempo de respuesta frente a los eventos, enfocar mejor las campañas de mercadeo, etc. En definitiva, tener otra forma de acercarse a los turistas y comprenderlos. / [EN] For several decades we have lived what academics and entrepreneurs call the information age and knowledge economy, both characterized, among other things, by the preponderant role that both information and knowledge hold in the production and management work of the organizations. Information and knowledge have evolved from being one among the resources in organizations to being one of their main assets in order to make decisions, to improve their processes, to understand the environment and to obtain a competitive advantage. But, to enjoy all these benefits, a pro-active and intelligent data management is necessary. The latter is more necessary in the current context where the amount of available data exceeds human capacity to analyze it. It is in this context where Business Intelligence takes on special importance since its purpose is to take data, generally from different sources, integrate and process the data so as to leaving it ready for subsequent analysis tasks. Parallel to the relevant role of Business Intelligence, there is the contribution of Web 2.0 in the generation of new data. Web 2.0 has been one of the triggers in the production of data through internet, thus becoming a valuable source of information about what people do, feel and wish. This is the case of platforms such as Twitter, which allows people to express their opinion on any topic of interest or OpenStreetMap, which facilitates the creation and consultation of geographic information in a collaborative way, among others. This thesis revolves around the use of collaborative data and the use of Business Intelligence technology to support the decision-making process, specifically applied to the tourism sector. Although the data management approach described in this thesis can be used, with slight adaptations, to work in other domains, tourism was selected for being one of the main economic activities worldwide. Taking 2019 as a reference, this economic sector grew 3.5 % above the global economy, which grew 2.5 %, generated 330 million jobs (1 in 10) and represented 10.3 % of gross domestic product global. First, an analysis of the collaborative data sources that can provide knowledge for the analysis of this sector was carried out and four data sources were selected: OpenStreetMap and Twitter, already mentioned, and Tripadvisor and Airbnb for information on accommodations. With these four collaborative data sources identified and using Business Intelligence as technological support, a platform responsible for the entire process was created, which includes the extraction of data from the different sources, integration of data in a consistent format, processing and structuring data to be used in analysis tasks and visualization of the analysis results. The built platform is called BITOUR. BITOUR integrates the proposal of a BI model to handle open, geospatial data, combined with content from social networks (collaborative) together with the proposal of a series of algorithms for the identification of tourists and residents of the destinations, the detection of non-real users and the assignment of tweets to places within a destination. The integration of collaborative data in a Business Intelligence platform represents a potential source of valuable knowledge that can be used in the tourism sector to know the activities that tourists carry out in a destination, the opinions about a particular destination and its tourist attractions or the seasons most frequented by tourists according to nationality, among many other questions. BITOUR allows to interactively define a destination to be analyzed, to load data from different types of sources like spatial and opinion sources, to execute routines that associate opinions with places and to identify tourists among the collected data as well as visualize the data in the same platform. BITOUR allows for the creation of dynamic tables and graphics that make it possible to manipulate the results of all the calculations that have been performed on the platform. In this way, tourist trends can be analyzed to shorten response time to events, put the focus on marketing campaigns, etc. In short, having another way of approaching tourists and understanding them. / [CA] Des de fa diverses dècades vivim en el que els acadèmics i industrials han convingut dir la era de la informació i economia del coneixement, totes dues caracteritzades, entre altres coses, pel rol preponderant que ocupen tant la informació com el coneixement en el quefer i en els processos, tant productius com de gestió, de les organitzacions. La informació i el coneixement han passat de ser un recurs més en les organitzacions a ser un dels principals actius que aquestes posseeixen i utilitzen per a prendre decisions, millorar els seus processos, comprendre l'entorn i obtenir un avantatge competitiu. Però, per a gaudir de tots aquests beneficis, es fa necessari una gestió pro-activa i intel·ligent de les dades. Aquesta última es fa més necessària en el context actual on la quantitat de dades disponibles sobrepassa la capacitat de l'home per a analitzar-los. És en aquest context on la Intel·ligència de Negocis cobra especial importància, ja que té com a propòsit prendre dades, generalment, des de diferents fonts, integrar-los i processar-los, deixant-los llestos per a posteriors tasques d'anàlisis. Paral·lel al lloc important que ocupa la intel·ligència de negocis, està la contribució de la Web 2.0 en la generació de nou contingut. La Web 2.0 ha sigut un dels desencadenants en la producció de dades a través de la internet convertint-se així en una font valuosa d'informació sobre el que les persones fan, senten i desitgen. Tal és el cas de plataformes com Twitter, que permet a les persones expressar la seua opinió sobre qualsevol tema d'interès o OpenStreetMap, que facilita la creació i consulta d'informació geogràfica de manera col·laborativa, entre altres. Aquesta tesi gira entorn de l'ús de dades col·laboratives i la utilització de la tecnologia de la Intel·ligència de Negoci per a suportar el procés de presa de decisions, aplicat, concretament, al sector turístic. Encara que l'enfocament de tractament de les dades descrit en aquesta tesi pot ser utilitzat, amb lleugeres adaptacions, per a treballar en altres dominis, es va seleccionar el turisme per ser un de les principals activitats econòmiques a nivell mundial. Prenent com a referència l'any 2019, aquest sector econòmic va créixer en un 3.5 % per damunt de l'economia global que va créixer un 2.5 %, va generar 330 milions d'ocupacions (1 de cada 10) i va representar el 10.3 % del producte intern brut global. En primer lloc, es va realitzar una anàlisi de les fonts de dades col·laboratives que poden aportar coneixement per a l'anàlisi d'aquest sector i es van seleccionar quatre fonts de dades: OpenStreetMap i Twitter, ja nomenades i Tripadvisor i Airbnb per a la informació sobre allotjaments. Amb les quatre fonts de dades col·laboratives identificades i utilitzant la Intel·ligència de Negoci com a suport tecnològic, es va crear una plataforma responsable de tot el procés, el qual abasta l'extracció de dades de les diferents fonts, la seua integració en un format consistent, el seu processament i estructuració per a ser utilitzats en tasques d'anàlisis i visualització dels resultats de l'anàlisi. La plataforma construïda es denomina BITOUR. BITOUR integra la proposta d'un model de BI per a manejar dades geo-espacials, obertes, combinades amb contingut de xarxes socials (col·laboratius) juntament amb la proposta d'una sèrie d'algorismes per a: la identificació dels turistes i residents de les destinacions, la detecció d'usuaris no reals i l'assignació dels "tuits" als llocs dins d'una destinació. La integració de dades col·laboratives en una plataforma d’Intel·ligència de negoci representa una font potencial de valuós coneixement que pot ser aprofitat en el sector turisme per a conèixer les activitats que realitzen els turistes en una destinació, les opinions sobre una destinació particular i les seues atraccions, els períodes de l’any més freqüentats pels turistes segons la nacionalitat, entre moltes altres preguntes. BITOUR permet definir, interactivament, una destinació a analitzar, carregar dades des de diferents tipus de fonts (espacials i d’opinió, entre altres), executar rutines que associen opinions a llocs i identifiquen turistes entre les dades recopilades, així com visualitzar les dades a través de la mateixa plataforma. BITOUR permet, entre altres coses, la creació de taules i gràfics dinàmics que possibiliten manipular els resultats de tots els càlculs que en la plataforma s’han realitzat. D’aquesta manera, es poden analitzar tendències dels turistes, tenir un menor temps de resposta enfront dels esdeveniments, enfocar millor les campanyes de mercadeig, etc. En definitiva, tenir una altra manera d’acostar-se als turistes i comprendre’ls. / Bustamante Martínez, AA. (2020). Análisis de datos colaborativos e inteligencia de negocio: aplicación al sector turístico [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/160061 / TESIS
196

Visualisation of Real Time Data for Public Bathing Sites in Uppsala

Damberg, Simon, Grönlund, Sebastian, Kreku Hofvander, Rasmus, Meier Ström, Theo, Vesterlund, Marcus January 2022 (has links)
Uppsala Municipality has, through previous projects, tried to communicate information about public bathing sites on a map by having employees manually look up temperature readings before posting them on Facebook. The projects have shown to be an inefficient use of resources. Therefore, a user-friendly website has been built to visualise relevant information on 21 public bathing sites in Uppsala Municipality. By having access to temperatures in the water and air at bathing sites on the website, citizens, and tourists can make a more informed decision on which public bathing site they should travel to. Conducted user tests for the website show that 71.6% would use it before visiting a bathing site, and further, 20.6%, may use it. To supply the website with data, we developed an API, specifically a public data API. / Uppsala Kommun har genom tidigare projekt försökt att förmedla information om offentliga badplatser på en karta med hjälp av anställda som manuellt läser av värden för att sedan publicera dessa på Facebook. Detta har visat sig vara en ineffektiv användning av resurser. Därför har en webbsida byggts som visualiserar relevant information om 21 offentliga badplatser i Uppsala Kommun på ett användarvänligt sätt. Med webbsidan kan medborgare eller turister ta ett mer informerat beslut och semestra inom kommunen genom att ha tillgång till temperaturen i vattnet och luften vid badplatser. Utförda användartester visar att 71.6% kan tänka sig använda webbsidan, och 20.6% kan kanske tänka sig använda webbsidan inför ett badbesök. För att tillhandahålla information till webbsidan har en API utvecklats, specifikt ett öppna data API.
197

A Smart Tale: An Examination of the Smart City Phenomena through the Lens of a Case Study

Habib, Abdulrahman 08 1900 (has links)
This dissertation addresses research questions related to defining a smart city and the associated activities. The general research question is explored in the dissertation via the conduct of three related studies. The finding from these three investigations are presented in the results section as 3 essays that collectively examine the smart city phenomena as it has emerged within the City. Essay 1 assesses building municipal open data capability. The study proposed an Opendata Roadmap Framework to enhance the organization's dynamic capability. The results provide a valuable practical framework to help cities develop open data capability. The results also provide a comparative study or benchmark for similar initiatives with other regional cities and within the nation. Essay 2 measures the residents' understanding and beliefs about smart cities. This portion of the research used a qualitative method that included interviewing residents and city officials to understand their definition of a smart city and what they believe makes a city smart. The interviews focused on understanding resident engagement because it is an important characteristic of a smart city. The gap between the city officials and residents understanding was examined. In addition, the interviews help identify essential factors associated with smart cities like trust in government, perceived security, perceived privacy, trust in technology, and perceived monetary value. Essay 3 examines the acceptance of smart city technologies and factors that affect the adoption of such technologies. This essay uses the insights from the other two essays to propose a smart city Unified Theory of Acceptance and Use of Technology (UTAUT) extension labelled Smart City UTAUT (SC-UTAUT). The new proposed model was tested using a survey method. The 1,786 valid responses were used to test the proposed structural equation model using Smart PLS. Results show a significant relationship between trust in technology, trust in government, perceived monetary value, effort expectancy, self-efficacy, and behavioral intention. The dissertation concludes with a summary of how the three essays make a cumulative contribution to the literature as well as providing practical guidance for becoming a smart city.
198

Sex Differences in Mate Preferences Across 45 Countries: A Large-Scale Replication

Walter, Kathryn V., Conroy-Beam, Daniel, Buss, David M., Asao, Kelly, Sorokowska, Agnieszka, Sorokowski, Piotr, Aavik, Toivo, Akello, Grace, Alhabahba, Mohammad Madallh, Alm, Charlotte, Amjad, Naumana, Anjum, Afifa, Atama, Chiemezie S., Atamtürk Duyar, Derya, Ayebare, Richard, Batres, Carlota, Bendixen, Mons, Bensafia, Aicha, Bizumic, Boris, Boussena, Mahmoud, Butovskaya, Marina, Can, Seda, Cantarero, Katarzyna, Carrier, Antonin, Cetinkaya, Hakan, Croy, Ilona, Cueto, Rosa María, Czub, Marcin, Dronova, Daria, Dural, Seda, Duyar, Izzet, Ertugrul, Berna, Espinosa, Agustín, Estevan, Ignacio, Esteves, Carla Sofia, Fang, Luxi, Frackowiak, Tomasz, Contreras Garduño, Jorge, Ugalde González, Karina, Guemaz, Farida, Gyuris, Petra, Halamová, Mária, Herak, Iskra, Horva, Marina, Hromatko, Ivana, Jaafar, Jas Laile, Jiang, Feng 17 May 2022 (has links)
Considerable research has examined human mate preferences across cultures, finding universal sex differences in preferences for attractiveness and resources as well as sources of systematic cultural variation. Two competing perspectives—an evolutionary psychological perspective and a biosocial role perspective—offer alternative explanations for these findings. However, the original data on which each perspective relies are decades old, and the literature is fraught with conflicting methods, analyses, results, and conclusions. Using a new 45-country sample (N = 14,399), we attempted to replicate classic studies and test both the evolutionary and biosocial role perspectives. Support for universal sex differences in preferences remains robust: Men, more than women, prefer attractive, young mates, and women, more than men, prefer older mates with financial prospects. Cross-culturally, both sexes have mates closer to their own ages as gender equality increases. Beyond age of partner, neither pathogen prevalence nor gender equality robustly predicted sex differences or preferences across countries.
199

La gobernanza de datos abiertos como mecanismo de articulación interinstitucional para la mejora de la gestión operativa de la Dirección General de Gobierno Interior del Ministerio del Interior (DGIN)

Urbina Falla, Karla Jannina 30 September 2020 (has links)
El presente trabajo de investigación se centra en cómo mejorar la eficacia y eficiencia de la gestión pública, concretamente, en la Dirección General del Gobierno Interior, DGIN mediante la correcta implementación y aplicación de las Tecnologías de Información y Comunicación, TIC, a fin de que las diferentes instituciones públicas puedan utilizar y aplicar adecuadamente estas herramientas tecnológicas y así optimizar los procesos internos y la interacción e interoperabilidad entre las entidades públicas, en un primer momento, y luego que presten un servicio de eficiencia, de eficacia, de calidad a los usuarios. Otro aspecto que se busca con este trabajo de investigación para mejorar la gestión de la Dirección General del Gobierno Interior, DGIN es implementar una gobernanza de datos abiertos que permita una gobernanza colaborativa institucional, en donde la información fluya, sea transparente, se encuentre disponible en tiempo real, al hacer esto se consigue optimizar tiempo, ahorrar recursos, además, lo que se logra es implementar una gestión pública por resultados, lo que significa que se debe rendir cuentas a partir de las evidencias que existan siendo esta también una forma efectiva para luchar contra la corrupción en el sector público. Existen varios desafíos y compromisos que deben asumir los actores involucrados, siendo entre otros que deben existir procesos serios de capacitación y asistencia técnica, a los funcionarios. Además, se debe privilegiar las competencias personales, y sobre todo, se debe contar con un presupuesto que permita realizar mejoras en la DGIN y así cumpla adecuadamente sus funciones. / This research work focuses on how to improve the effectiveness and efficiency of public management, specifically, in the General Directorate of the Interior Government, DGIN, through the correct implementation and application of Information and Communication Technologies (TIC), so that the different public institutions can use and properly apply these technological tools to optimize internal processes, the interaction, and interoperability between public entities. And also to provide efficient and qualified services. Another aspect of this research is to improve the management of the General Directorate of the Interior Government, DGIN, to implement an open data governance that allows institutional collaborative governance, where information flows, and to be transparent, and available in real time. By doing so, it is possible to optimize time and save resources. In adition, we can achieve an effective public management by results, which means that accounts must be made based on evidence as an effective way to fight corruption in the public sector. There are several challenges and commitments that the involved actors must assume. Among others, training and technical assistance processes for officials. In addition, personal competencies must be privileged, and above all, a budget must be available that allows improvements to be made in the DGIN. Therefore, adequately fulfills its functions. / Tesis
200

Otevřená data a jejich využití v tuzemské datové žurnalistice / Open Data and their use in Czech Data Journalism

Krawiecová, Nela January 2022 (has links)
The fundamental source of data journalism, which has established itself in the Czech media landscape in recent years, is the availability of usable data sets. However, academicians have so far neglected the topic of data openness and its importance in journalistic discourse. Simultaneously, data journalists are often the first to make data available to the public. An integral part of the thesis is mapping the historical development of data journalism, including the phenomenon of open government with a focus on Czech and European legislation and obtaining information with the help of the Freedom of Information Act. The aim of the thesis is, based on in-depth interviews with Czech data journalists, to identify the data sources which they frequently often use in their editorial routines, to evaluate the quality of these sources and to present the main limits that journalists encounter. In the conclusive part of the thesis the author transfers the focus to analysis of the availability of data sources provided by the Ministry of Health and the Institute of Health Information and Statistics during the COVID-19 pandemic in 2020 and 2021 and outlines the process of acquisition, cleaning, analysis, and visualization of information by journalists.

Page generated in 0.0709 seconds