• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 2
  • Tagged with
  • 8
  • 8
  • 4
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

L'analyse conceptuelle de textes assistée par ordinateur (LACTAO) : une expérimentation appliquée au concept d'évolution dans l'oeuvre d'Henri Bergson

Danis, Jean 03 1900 (has links) (PDF)
La présente recherche vise à expérimenter l'assistance informatique au processus d'analyse conceptuelle en philosophie. L'objectif spécifique de recherche consiste à explorer la portée d'un traitement informatique d'assistance à l'analyse du concept d'« évolution » dans l'œuvre d'Henri Bergson. Le traitement expérimenté (traitement LACTAO) repose sur l'hypothèse générale selon laquelle des processus de classification et de catégorisation, lorsque combinés au sein d'une chaîne de traitement, peuvent assister le chercheur dans la lecture et l'analyse exploratoire des propriétés d'un concept philosophique. Afin de mieux comprendre la problématique de l'assistance informatique à l'analyse des concepts de nature philosophique, nous faisons dans un premier temps un tour d'horizon des principaux outils et approches d'analyse des données textuelles, puis, dans un deuxième temps, nous abordons certains des principes théoriques qui sous-tendent les méthodes d'analyse conceptuelle issues de l'approche cognitiviste, de la théorie des espaces conceptuels (Gardenfors, 2000) ainsi que des approches discursives. À la suite de ces éléments théoriques, nous présentons la méthode particulière d'analyse conceptuelle qui est visée par l'expérimentation du traitement LACTAO dans l'analyse du concept d'« évolution » dans l’œuvre de Bergson. L'aspect informatique de la présente recherche est présenté par le biais de la description détaillée des différentes étapes de la chaîne de traitement LACTAO, des principaux postulats qui la sous-tendent et des choix d'opérationnalisation qu'elle suscite au sein de la méthode d'analyse du concept d'« évolution ». Les résultats de l'expérimentation du traitement sont présentés de façon à démontrer la portée de ce dernier dans l'assistance à un processus de lecture et d'analyse exploratoire en contexte de recherche. Nous proposons en conclusion une interprétation des résultats obtenus sous l'angle de la théorie des espaces conceptuels (Gardenfors, 2000) ainsi que des pistes de réflexion qui permettraient d'améliorer la portée du traitement au sein d'expérimentations futures. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : analyse conceptuelle en philosophie, analyse de textes assistée par ordinateur, Henri Bergson, espaces conceptuels, corpus philosophique, méthodologie, classification textuelle.
2

Vers une analyse scientométrique de textes intégraux en accès libre par la réalisation d'un robot de recherche

Hajjem, Chawki January 2009 (has links) (PDF)
Le mouvement du libre accès à la littérature scientifique attire chaque jour de plus en plus l'intérêt des intervenants dans le domaine de publication scientifique. Les points de vue sont divergents pour des raisons diverses: scientifiques, politiques et économiques. Pour identifier l'effet du facteur de l'accès libre sur l'impact scientifique, la thèse étudiera d'abord les points suivants: 1-Le processus de publication avant et après l'introduction de l'accès libre. 2-Les citations selon divers points de vue disciplinaires. 3-Les citations comme outil d'évaluation des performances scientifiques des recherches. 4-Les différences dans les pratiques de recherche entre le domaine scientifique et le domaine des sciences humaines. Cette étude permettra une meilleure compréhension de la problématique de la thèse et une meilleure clarification des diverses portées du phénomène du libre accès. En effet, en se basant sur cette étude théorique, l'hypothèse de recherche sera définie et la méthodologie de recherche sera conçue. La partie pratique commence par la présentation de la méthodologie de recherche. Elle présente les outils et les moyens qui seront mis en oeuvre pour vérifier l'hypothèse de recherche. Elle définit la plateforme sur laquelle la méthodologie sera appliquée: base de données d'ISI, robot de recherche, infrastructure informatique, méthodes et modèles statistiques. Ensuite, elle présente la mise en oeuvre de la méthodologie de recherche avant de présenter les résultats obtenus. La dernière partie de la thèse porte sur l'étude des résultats obtenus. Elle identifie les forces et les limites des analyses réalisées et détermine si l'hypothèse de recherche a été vérifiée. Pour conclure, elle présente les diverses implications des résultats de la thèse sur les points de vue des intervenants dans le processus de publication. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Accès libre, Robot de recherche, Repérage d'information, Scientométrie, Articles scientifiques, ISI, Impact de citations, Publication scientifique.
3

Les lois et le changement culturel : le handicap en Italie et en France / The laws and the cultural change : The disability in Italy and France

Greco, Francesca 27 November 2015 (has links)
Ce travail de recherche propose une intégration de la psychologie dans la sociologie. Un modèle théorique de la psychologie, qui interprète les comportements des acteurs sociaux et les relations sociales comme le produit des processus inconscients collectifs, a été utilisé afin d'étudier un phénomène sociale: le changement culturel face à la promulgation des lois. En particulier, le changement culturel survenu suite à la promulgation des lois en faveur des personnes ayant un handicap en Italie et en France a été étudié. Dans ce but, une procédure d'analyse textuelle afin d'étudier les phénomènes sociaux a été développée, testée et utilisée pour comprendre de quelle manière la promulgation des lois sur le handicap a produit un changement culturel au niveau national, de la formation universitaire et du marché du travail. Les résultats indiquent que la procédure développée offre un gain notable en terme de temps et de ressources, permettant de mettre en relation les catégories inconscientes avec les comportements des acteurs sociaux. Ils mettent aussi en évidence les différences entre l'actuelle représentation du handicap et celle du passée décrite en littérature. Les lois semblent, donc, activer un changement culturel produisant des pratiques innovantes qui s'associent à des formes de culture caractéristiques. En conclusion l'utilisation du concept d'inconscient social afin d'étudier les phénomènes sociaux semble permettre une meilleure compréhension des comportements des acteurs sociaux. / This research proposes integration between psychology and sociology. A psychological theoretical model conceiving behaviors and social relationships as the product of the social unconscious processes was used to study a social phenomenon: the cultural change produced by laws enactment. In particular, the cultural change occurred following the enactment of laws for people with disabilities was studied in Italy and in France. To this end, a text analysis procedure to study social phenomena was developed, tested and used to understand how the enactment of laws on disability produced a cultural change on a national scale, in university training and on the labour market. Results show that the analysis procedure produces a significant gain in terms of time and resources, allowing to connect the unconscious categories with social actors' behaviors. They also highlight the differences between the current representation of disability and that of the past described in literature. Therefore, the laws enactment seems to enable a cultural change producing innovative practices that are associated with peculiar forms of culture. In conclusion the use of the concept of social unconscious to study social phenomena, seems to facilitate the understanding of the actors' behaviors.
4

Modélisation informatique de structures dynamiques de segments textuels pour l'analyse de corpus

Daoust, François 10 January 2011 (has links) (PDF)
L'objectif de la thèse est de proposer un modèle informatique pour représenter, construire et exploiterdes structures textuelles. Le modèle proposé s'appuie sur une représentation du texte sous la forme d'unplan lexique/occurrences augmenté de systèmes d'annotations lexicales et contextuelles, modèle dontune implantation a été réalisée dans le logiciel SATO dont on présente les fonctionnalités etl'organisation interne. La présentation d'un certain nombre de travaux rendent compte dudéveloppement et de l'utilisation du logiciel dans divers contextes.La prise en charge formelle des structures textuelles et discursives trouve un allié dans le langage debalisage XML et dans les propositions de la Text Encoding Initiative (TEI). Formellement, lesstructures construites sur les segments textuels correspondent à des graphes. Dans le contexte d'uneanalyse textuelle en élaboration, ces graphes sont multiples et partiellement déployés. La résolution deces graphes, au sens du rattachement des noeuds à des segments textuels ou à des noeuds d'autresgraphes, est un processus dynamique qui peut être soutenu par divers mécanismes informatiques. Desexemples tirés de la linguistique textuelle servent à illustrer les principes de l'annotation structurelle.Des considérations prospectives sur une implantation informatique d'un système de gestion del'annotation structurelle sont aussi exposées.
5

Modélisation informatique de structures dynamiques de segments textuels pour l'analyse de corpus / Data-processing modeling of dynamic structures of textual segments for the analysis of corpus

Daoust, François 10 January 2011 (has links)
L'objectif de la thèse est de proposer un modèle informatique pour représenter, construire et exploiterdes structures textuelles. Le modèle proposé s'appuie sur une représentation du texte sous la forme d'unplan lexique/occurrences augmenté de systèmes d'annotations lexicales et contextuelles, modèle dontune implantation a été réalisée dans le logiciel SATO dont on présente les fonctionnalités etl'organisation interne. La présentation d'un certain nombre de travaux rendent compte dudéveloppement et de l'utilisation du logiciel dans divers contextes.La prise en charge formelle des structures textuelles et discursives trouve un allié dans le langage debalisage XML et dans les propositions de la Text Encoding Initiative (TEI). Formellement, lesstructures construites sur les segments textuels correspondent à des graphes. Dans le contexte d'uneanalyse textuelle en élaboration, ces graphes sont multiples et partiellement déployés. La résolution deces graphes, au sens du rattachement des noeuds à des segments textuels ou à des noeuds d'autresgraphes, est un processus dynamique qui peut être soutenu par divers mécanismes informatiques. Desexemples tirés de la linguistique textuelle servent à illustrer les principes de l'annotation structurelle.Des considérations prospectives sur une implantation informatique d'un système de gestion del'annotation structurelle sont aussi exposées. / The objective of the thesis is to propose a data-processing model to represent, build and exploit textualstructures. The suggested model relies on a «type/token» form of text representation extended bysystems of lexical and contextual annotations. This model's establishment was carried out in the SATOsoftware -- of which the functionalities and the internal organization are presented. Reference to anumber of works give an account of the development and use of the software in various contexts.The formal assumption of the textual and discursive structures find an ally in the beaconing XMLlanguage and the proposals of the Text Encoding Initiative (TEI). Formally, the structures built on thetextual segments correspond to graphs. In a development driven textual analysis context, these graphsare multiple and partially deployed. Their resolution, within the fastening of the nodes to textualsegments or that of other graphs, is a dynamic process which can be sustained by various dataprocessingmechanisms. Examples drawn from textual linguistics are used to illustrate the principles ofstructural annotation. Prospective considerations for the data-processing establishment of amanagement system of the structural annotation are also exposed.
6

Apport des Systèmes Multi-Agent et de la logique floue pour l'assistance au tuteur dans une communauté d'apprentissage en ligne / Contribution of Multi-Agent Systems and Fuzzy logic to support tutors in Learning Communities

Chaabi, Youness 11 July 2016 (has links)
La place importante du tutorat dans la réussite d'un dispositif de formation en ligne a ouvert un nouvel axe de recherche dans le domaine des EIAH (Environnements Informatiques pour l'Apprentissage Humain). Nos travaux se situent plus particulièrement dans le champ de recherches des ACAO. Dans un contexte collaboratif, le tutorat et les outils « d'awareness » constituent des solutions admises pour faire face à l'isolement qui très souvent, mène à l'abandon de l'apprenant. Ainsi, du fait des difficultés rencontrées par le tuteur pour assurer un encadrement et un suivi appropriés à partir des traces de communication (en quantités conséquentes) laissées par les apprenants, nous proposons une approche multi-agents pour analyser les conversations textuelles asynchrones entre apprenants. Ces interactions sont révélatrices de comportements sociaux-animateur, indépendant, etc... qu'il nous paraît important de pouvoir repérer lors d'une pédagogie de projet pour permettre aux apprenants de situer leurs travaux par rapport aux autres apprenants et situer leur groupe par rapport aux autres groupes d'une part, et d'autre part permettre au tuteur d'accompagner les apprenants dans leur processus d'apprentissage, repérer et soutenir les individus en difficulté pour leur éviter l'abandon. Ces indicateurs seront déduits à partir des grands volumes d'échanges textuels entre apprenants.L'approche a été ensuite testée sur une situation réelle, qui a montré une parfaite concordance entre les résultatsobservés par des tuteurs humains et ceux déterminés automatiquement par notre système. / The growing importance of online training has put emphasis on the role of remote tutoring. A whole new area of research, dedicated to environment for human learning (EHL), is emerging. We are concerned with this field. More specifically, we will focus on the monitoring of learners.The instrumentation and observation of learners activities by exploiting interaction traces in the EHL and the development of indicators can help tutors to monitor activities of learners and support them in their collaborative learning process. Indeed, in a learning situation, the teacher needs to observe the behavior of learners in order to build an idea about their involvement, preferences and learning styles so that he can adapt the proposed activities. As part of the automatic analysis of collaborative learner¿s activities, we describe a multi agent approach for supporting learning activities in a Virtual Learning Environment context. In order to assist teachers who monitor learning processes, viewed as a specific type of collaboration, the proposed system estimates a behavioral (sociological) profile for each student. This estimation is based on automatic analysis of students textual asynchronous conversations. The determined profiles are proposed to the teacher and may provide assistance toteacher during tutoring tasks. The system was experimented with students of the master "software quality" of the Ibn Tofail University. The results obtained show that the proposed approach is effective and gives satisfactory results.
7

An Efficient Framework for Processing and Analyzing Unstructured Text to Discover Delivery Delay and Optimization of Route Planning in Realtime / Un framework efficace pour le traitement et l'analyse des textes non structurés afin de découvrir les retards de livraison et d'optimiser la planification de routes en temps réel

Alshaer, Mohammad 13 September 2019 (has links)
L'Internet des objets, ou IdO (en anglais Internet of Things, ou IoT) conduit à un changement de paradigme du secteur de la logistique. L'avènement de l'IoT a modifié l'écosystème de la gestion des services logistiques. Les fournisseurs de services logistiques utilisent aujourd'hui des technologies de capteurs telles que le GPS ou la télémétrie pour collecter des données en temps réel pendant la livraison. La collecte en temps réel des données permet aux fournisseurs de services de suivre et de gérer efficacement leur processus d'expédition. Le principal avantage de la collecte de données en temps réel est qu’il permet aux fournisseurs de services logistiques d’agir de manière proactive pour éviter des conséquences telles que des retards de livraison dus à des événements imprévus ou inconnus. De plus, les fournisseurs ont aujourd'hui tendance à utiliser des données provenant de sources externes telles que Twitter, Facebook et Waze, parce que ces sources fournissent des informations critiques sur des événements tels que le trafic, les accidents et les catastrophes naturelles. Les données provenant de ces sources externes enrichissent l'ensemble de données et apportent une valeur ajoutée à l'analyse. De plus, leur collecte en temps réel permet d’utiliser les données pour une analyse en temps réel et de prévenir des résultats inattendus (tels que le délai de livraison, par exemple) au moment de l’exécution. Cependant, les données collectées sont brutes et doivent être traitées pour une analyse efficace. La collecte et le traitement des données en temps réel constituent un énorme défi. La raison principale est que les données proviennent de sources hétérogènes avec une vitesse énorme. La grande vitesse et la variété des données entraînent des défis pour effectuer des opérations de traitement complexes telles que le nettoyage, le filtrage, le traitement de données incorrectes, etc. La diversité des données - structurées, semi-structurées et non structurées - favorise les défis dans le traitement des données à la fois en mode batch et en temps réel. Parce que, différentes techniques peuvent nécessiter des opérations sur différents types de données. Une structure technique permettant de traiter des données hétérogènes est très difficile et n'est pas disponible actuellement. En outre, l'exécution d'opérations de traitement de données en temps réel est très difficile ; des techniques efficaces sont nécessaires pour effectuer les opérations avec des données à haut débit, ce qui ne peut être fait en utilisant des systèmes d'information logistiques conventionnels. Par conséquent, pour exploiter le Big Data dans les processus de services logistiques, une solution efficace pour la collecte et le traitement des données en temps réel et en mode batch est essentielle. Dans cette thèse, nous avons développé et expérimenté deux méthodes pour le traitement des données: SANA et IBRIDIA. SANA est basée sur un classificateur multinomial Naïve Bayes, tandis qu'IBRIDIA s'appuie sur l'algorithme de classification hiérarchique (CLH) de Johnson, qui est une technologie hybride permettant la collecte et le traitement de données par lots et en temps réel. SANA est une solution de service qui traite les données non structurées. Cette méthode sert de système polyvalent pour extraire les événements pertinents, y compris le contexte (tel que le lieu, l'emplacement, l'heure, etc.). En outre, il peut être utilisé pour effectuer une analyse de texte sur les événements ciblés. IBRIDIA a été conçu pour traiter des données inconnues provenant de sources externes et les regrouper en temps réel afin d'acquérir une connaissance / compréhension des données permettant d'extraire des événements pouvant entraîner un retard de livraison. Selon nos expériences, ces deux approches montrent une capacité unique à traiter des données logistiques / Internet of Things (IoT) is leading to a paradigm shift within the logistics industry. The advent of IoT has been changing the logistics service management ecosystem. Logistics services providers today use sensor technologies such as GPS or telemetry to collect data in realtime while the delivery is in progress. The realtime collection of data enables the service providers to track and manage their shipment process efficiently. The key advantage of realtime data collection is that it enables logistics service providers to act proactively to prevent outcomes such as delivery delay caused by unexpected/unknown events. Furthermore, the providers today tend to use data stemming from external sources such as Twitter, Facebook, and Waze. Because, these sources provide critical information about events such as traffic, accidents, and natural disasters. Data from such external sources enrich the dataset and add value in analysis. Besides, collecting them in real-time provides an opportunity to use the data for on-the-fly analysis and prevent unexpected outcomes (e.g., such as delivery delay) at run-time. However, data are collected raw which needs to be processed for effective analysis. Collecting and processing data in real-time is an enormous challenge. The main reason is that data are stemming from heterogeneous sources with a huge speed. The high-speed and data variety fosters challenges to perform complex processing operations such as cleansing, filtering, handling incorrect data, etc. The variety of data – structured, semi-structured, and unstructured – promotes challenges in processing data both in batch-style and real-time. Different types of data may require performing operations in different techniques. A technical framework that enables the processing of heterogeneous data is heavily challenging and not currently available. In addition, performing data processing operations in real-time is heavily challenging; efficient techniques are required to carry out the operations with high-speed data, which cannot be done using conventional logistics information systems. Therefore, in order to exploit Big Data in logistics service processes, an efficient solution for collecting and processing data in both realtime and batch style is critically important. In this thesis, we developed and experimented with two data processing solutions: SANA and IBRIDIA. SANA is built on Multinomial Naïve Bayes classifier whereas IBRIDIA relies on Johnson's hierarchical clustering (HCL) algorithm which is hybrid technology that enables data collection and processing in batch style and realtime. SANA is a service-based solution which deals with unstructured data. It serves as a multi-purpose system to extract the relevant events including the context of the event (such as place, location, time, etc.). In addition, it can be used to perform text analysis over the targeted events. IBRIDIA was designed to process unknown data stemming from external sources and cluster them on-the-fly in order to gain knowledge/understanding of data which assists in extracting events that may lead to delivery delay. According to our experiments, both of these approaches show a unique ability to process logistics data. However, SANA is found more promising since the underlying technology (Naïve Bayes classifier) out-performed IBRIDIA from performance measuring perspectives. It is clearly said that SANA was meant to generate a graph knowledge from the events collected immediately in realtime without any need to wait, thus reaching maximum benefit from these events. Whereas, IBRIDIA has an important influence within the logistics domain for identifying the most influential category of events that are affecting the delivery. Unfortunately, in IBRIRDIA, we should wait for a minimum number of events to arrive and always we have a cold start. Due to the fact that we are interested in re-optimizing the route on the fly, we adopted SANA as our data processing framework
8

Law in the present future : approaching the legal imaginary of smart cities with science (and) fiction

Therrien, Cristiano S. 02 1900 (has links)
This doctoral research concerns smart cities, describing digital solutions and social issues related to their innovative technologies, adopted models, and major projects around the world. The many perspectives mentioned in it were identified by online tools used for the textual analysis of two databases that were built from relevant publications on the main subject by authors coming from media and academia. Expected legal elements emerged from the applied process, such as privacy, security, transparency, participation, accountability, and governance. A general review was produced on the information available about the public policies of Big Data in the two municipal cases of Rio de Janeiro and Montréal, and their regulation in the Brazilian and Canadian contexts. The combined approaches from science and literature were explored to reflect on the normative concerns represented by the global challenges and local risks brought by urban surveillance, climate change, and other neoliberal conditions. Cyberpunk Science Fiction reveals itself useful for engaging with the shared problems that need to be faced in the present time, all involving democracy. The results achieved reveal that this work was, in fact, about the complex network of practices and senses between (post)modern law and the imaginary of the future. / Cette recherche doctorale centrée sur les villes intelligentes met en évidence les solutions numériques et les questionnements sociétaux qui ont trait aux technologies innovantes, ainsi qu’aux principaux modèles et projets développés autour d’elles à travers le monde. Des perspectives multiples en lien avec ces développements ont été identifiées à l’aide d’outils en ligne qui ont permis l’analyse textuelle de deux bases de données comprenant des publications scientifiques et des écrits médiatiques. De ce processus analytique ont émergé des éléments juridiques relatifs aux questions de vie privée, de sécurité, de transparence, de participation, d’imputabilité et de gouvernance. De plus, à partir de ces informations a été réalisée une revue des politiques publiques relatives aux mégadonnées dans les villes de Rio de Janeiro et de Montréal, ainsi que des réglementations nationales du Canada et du Brésil en lien avec ce sujet. Finalement, à travers l’exploration d’écrits scientifiques et fictionnels de la littérature, les principaux enjeux normatifs soulevés localement et mondialement par la surveillance urbaine, les changements climatiques et les politiques néolibérales ont pu être mis à jour. Le courant cyberpunk de la science-fiction s’est avéré particulièrement utile pour révéler les principaux problèmes politiques, en lien avec la préservation de la démocratie, auxquelles sont confrontées nos sociétés présentement. Les résultats de la recherche démontrent finalement la présence d’un réseau de pratiques et de significations entre le droit (post)moderne et les représentations imaginaires du futur.

Page generated in 0.0703 seconds