• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 18
  • 4
  • 1
  • Tagged with
  • 53
  • 17
  • 13
  • 13
  • 12
  • 12
  • 11
  • 11
  • 8
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Détection et suivi d’événements de surveillance / Surveillance Event Detection and Monitoring

Sharif, Md. Haidar 16 July 2010 (has links)
Dans les systèmes de vidéosurveillance, les algorithmes de vision assistée par ordinateur ont joué un rôle crucial pour la détection d’événements liés à la sûreté et la sécurité publique. Par ailleurs, l’incapacité de ces systèmes à gérer plusieurs scènes de foule est une lacune bien connue. Dans cette thèse, nous avons développé des algorithmes adaptés à certaines difficultés rencontrées dans des séquences vidéo liées à des environnements de foule d’une ampleur significative comme les aéroports, les centres commerciaux, les rencontres sportives etc. Nous avons adopté différentes approches en effectuant d’abord une analyse globale du mouvement dans les régions d’intérêt de chaque image afin d’obtenir des informations sur les comportements multimodaux de la foule sous forme de structures spatio-temporelles complexes. Ces structures ont ensuite été utilisées pour détecter des événements de surveillance inhabituels au sein-même de la foule. Pour réaliser nos expériences, nous nous sommes principalement appuyés sur trois ensembles de données qui ont suscité notre réflexion. Les résultats reflètent à la fois la qualité et les défauts de ces approches. Nous avons également développé une distance pseudo-euclidienne.Pour démontrer son utilité, une méthodologie qui lui est propre a été utilisée pour la détection de plusieurs événements de surveillance standards issus de la base TRECVID2008. Certains résultats montrent la robustesse de cette méthodologie tandis que d’autres soulignent la difficulté du problème. Les principaux défis portent, entre autres, sur le flux massif de personnes, l’importance de l’occlusion, la réflexion, les ombres, les fluctuations, les variations de la taille de la cible, etc. Cependant, nos idées et nos expériences de ces problèmes d’ordre pratique ont été particulièrement utiles. De plus, cette thèse développe un algorithme permettant de suivre une cible individuelle dans le cadre de plusieurs scènes de foule. Les séquences vidéo de la base de PETS2009 Benchmark ont été prises en compte pour évaluer les performances de cet algorithme. Si on analyse ses avantages et ses inconvénients, celui-ci fait toujours preuve d’une grande exactitude et sensibilité vis-à-vis des effets de variationde la lumière, ce qui atteste de sa grande efficacité même lorsque la luminosité baisse, que la cible entre ou sort d’une zone d’ombre ou en cas de lueur soudaine. / Computer vision algorithms have played a vital role in video surveillance systems to detect surveillance events for public safety and security. Even so, a common demerit among these systems is their unfitness to handle divers crowded scenes. In this thesis, we have developed algorithms which accommodate some of the challenges encountered in videos of crowded environments (e.g., airports, malls, sporting events) to a certain degree. We have adopted approaches by first performing a global-level motion analysis within each frame’s region of interest that provides the knowledge of crowd’s multi-modal behaviors in the form of complex spatiotemporal structures. These structures are then employed in the detection of unusual surveillance events occurred in the crowds. To conduct experiments, we have heavily relied on three thought-provoking datasets. The results reflect some unique global excellences of the approaches. We have also developed a pseudo Euclidian distance. To show its usage, a methodology based on it has been employed in the detection of various usual surveillance events from theTRECVID2008. Some results report the robustness of the methodology, while the rest gives evidence of the difficulty of the problem at hand. Big challenges include, but are not limited to, massive population flow, heavy occlusion, reflection, shadow, fluctuation, varying target sizes, etc. Notwithstanding, we have got much useful insights and experience to the practical problems. In addition, the thesis explores an individual target tracking algorithm within miscellaneous crowded scenes. Video sequences from the PETS2009 Benchmark data have been used to evaluate its performance. Viewing its pros and cons, the algorithm is still highly accurate and its sensitivity to the effects of diversity in noise and lighting, which ascertains its high-quality performance on disappearances, targets moving in and out of the shadow, and flashes of light.
2

Event-Based Recognition Of Lived : Experiences In User Reviews / Reconnaissance d'expériences vécues dans les avis d'utilisateurs : une méthode basée sur les événements

Hassan, Ehab 03 May 2017 (has links)
La quantité de contenu généré par l'utilisateur sur le Web croît à un rythme rapide.Une grande partie de ce contenu est constituée des opinions et avis sur des produits et services. Vu leur impact, ces avis sont un facteur important dans les décisions concernant l'achat de ces produits ou services. Les utilisateurs ont tendance à faire confiance aux autres utilisateurs, surtout s'ils peuvent se comparer à ceux qui ont écrit les avis, ou, en d'autres termes, ils sont confiants de partager certaines caractéristiques. Par exemple, les familles préféreront voyager dans les endroits qui ont été recommandés par d'autres familles. Nous supposons que les avis qui contiennent des expériences vécues sont plus précieuses, puisque les expériences donnent aux avis un aspect plus subjective, permettant aux lecteurs de se projeter dans le contexte de l'écrivain.En prenant en compte cette hypothèse, dans cette thèse, nous visons à identifier, extraire et représenter les expériences vécues rapportées dans les avis des utilisateurs en hybridant les techniques d'extraction des connaissances et de traitement du langage naturel,afin d'accélérer le processus décisionnel. Pour cela, nous avons défini opérationnellement une expérience vécue d'un utilisateur comme un événement mentionné dans un avis, où l'auteur est présent parmi les participants. Cette définition considère que les événements mentionnés dans le texte sont les éléments les plus importants dans les expériences vécues: toutes les expériences vécues sont basées sur des événements, qui sont clairement définis dans le temps et l'espace. Par conséquent, nous proposons une approche permettant d'extraire les événements à partir des avis des utilisateurs, qui constituent la base d'un système permettant d'identifier et extraire les expériences vécues.Pour l'approche d'extraction d'événements, nous avons transformé les avis des utilisateur sen leurs représentations sémantiques en utilisant des techniques de machine reading.Nous avons effectué une analyse sémantique profonde des avis et détecté les cadres linguistiques les plus appropriés capturant des relations complexes exprimées dans les avis. Le système d'extraction des expériences vécues repose sur trois étapes. La première étape opère un filtrage des avis, basé sur les événements, permettant d'identifier les avis qui peuvent contenir des expériences vécues. La deuxième étape consiste à extraire les événements pertinents avec leurs participants. La dernière étape consiste à représenter les expériences vécues extraites de chaque avis comme un sous-graphe d'événements contenant les événements pertinents et leurs participants.Afin de tester notre hypothèse, nous avons effectué quelques expériences pour vérifier si les expériences vécues peuvent être considérées comme des motivations pour les notes attribuées par les utilisateurs dans le système de notation. Par conséquent, nous avons utilisé les expériences vécues comme des caractéristiques dans un système de classification, en comparant avec les notes associées avec des avis dans un ensemble de données extraites et annotées manuellement de Tripadvisor. Les résultats montrent que les expériences vécues sont corrélées avec les notes. Cette thèse fournit des contributions intéressantes dans le domaine de l'analyse d'opinion. Tout d'abord, l'application avec succès de machine reading afin d'identifier les expériences vécues. Ensuite, La confirmation que les expériences vécues sont liées aux notations. Enfin, l'ensemble de données produit pour tester notre hypothèse constitue également une contribution importante de la thèse. / The quantity of user-generated content on the Web is constantly growing at a fast pace.A great share of this content is made of opinions and reviews on products and services.This electronic word-of-mouth is also an important factor in decisions about purchasing these products or services. Users tend to trust other users, especially if they can compare themselves to those who wrote the reviews, or, in other words, they are confident to share some characteristics. For instance, families will prefer to travel in places that have been recommended by other families. We assume that reviews that contain lived experiences are more valuable, since experiences give to the reviews a more subjective cut, allowing readers to project themselves into the context of the writer. With this hypothesis in mind, in this thesis we aim to identify, extract, and represent reported lived experiences in customer reviews by hybridizing Knowledge Extraction and Natural Language Processing techniques in order to accelerate the decision process. Forthis, we define a lived user experience as an event mentioned in a review, where the authoris among the participants. This definition considers that mentioned events in the text are the most important elements in lived experiences : all lived experiences are based on events,which on turn are clearly defined in time and space. There fore, we propose an approach to extract events from user reviews, which constitute the basis of an event-based system to identify and extract lived experiences. For the event extraction approach, we transform user reviews into their semantic representations using machine reading techniques. We perform a deep semantic parsing of reviews, detecting the linguistic frames that capture complex relations expressed in there views. The event-based lived experience system is carried out in three steps. The first step operates an event-based review filtering, which identifies reviews that may contain lived experiences. The second step consists of extracting relevant events together with their participants. The last step focuses on representing extracted lived experiences in each review as an event sub-graph.In order to test our hypothesis, we carried out some experiments to verify whether lived experiences can be considered as triggers for the ratings expressed by users. Therefore, we used lived experiences as features in a classification system, comparing with the ratings of the reviews in a dataset extracted and manually annotated from Tripadvisor. The results show that lived experiences are actually correlated with the ratings.In conclusion, this thesis provides some interesting contributions in the field of opinionmining. First of all, the successful application of machine reading to identify lived experiences. Second, the confirmation that lived experiences are correlated to ratings. Finally,the dataset produced to test our hypothesis constitutes also an important contribution of the thesis.
3

Les stratégies et pratiques d'affaires des entreprises biomédicales canadiennes une perspective boursière

Macena, Jean-Claude January 2010 (has links)
Résumé : Cette thèse porte sur la réaction des marchés boursiers lors des annonces publiques d'information non financières des entreprises biomédicales canadiennes. La présente recherche s'articule autour de l'évaluation des pratiques d'affaires par lesquelles les entreprises biomédicales canadiennes incitent les investisseurs à financer la recherche et le développement des technologies biomédicales. Les enjeux liés au secteur biomédical canadien, qu'ils soient économiques, politiques ou environnementaux, sont colossaux : des opérations financières de plusieurs dizaines de milliards de dollars, des milliers d'emplois concernés, des nouveaux médicaments pour des marchés mondiaux générant des ventes de plus d'un milliard de dollars annuellement, des infrastructures stratégiques impliquant des questions d'indépendance nationale, de sécurité sanitaire ou encore d'impacts sur la santé des canadiens. En effet, cette thèse offre une opportunité de recherche originale en management stratégique, celle de la rencontre entre la dynamique concurrentielle des entreprises biomédicales et la finance comportementale dans une perspective d'évaluation boursière. S'intéressant à la construction d'un avantage concurrentiel et au processus de création de valeur, la réflexion stratégique émanant de ce corpus trouve ici un univers de recherche particulièrement stimulant. Placée sous l'influence de trois axes de recherche qui n'ont pas été suffisamment abordés de façon intégrée dans la littérature managériale : les dynamiques concurrentielles des entreprises biomédicales, le management de leurs pratiques d'affaires et la réaction des marchés boursiers face à la divulgation d'informations publiques sur les pratiques d'affaires, cette thèse apportera aux entreprises biomédicales canadiennes un tableau de persistance sur les rendements anticipés des investisseurs boursiers. De plus, elle fournira aux hauts dirigeants des entreprises ainsi qu'aux membres de leur conseil d'administration des balises pour mieux évaluer l'efficacité de leurs décisions d'affaires. La divulgation des pratiques d'affaires en temps opportun est de plus en plus utilisée comme un outil de gestion capable d'influencer la variation du cours des actions des entreprises biomédicales. À ce titre, cette recherche vise à convaincre les dirigeants des entreprises biomédicales que certaines pratiques d'affaires couramment utilisées par leurs entreprises sont intimement liées à la capitalisation boursière de leurs activités, et qu'ils doivent les déployer dans des stratégies de valorisation lors des annonces publiques d'information, et ce, dans le but de fournir aux investisseurs des balises d'évaluation capables de les aider à mieux gérer leurs anticipations face aux asymétries d'information. Les activités de ces entreprises entrent dans une nouvelle sphère où la fluidité dans la transmission des informations relatives à leurs pratiques d'affaires devient un outil essentiel de création de valeur pour les actionnaires. De surcroît, la problématique managériale s'inscrit dans un cadre de valorisation des pratiques d'affaires et, la question de recherche est relative à l'existence d'une relation entre les pratiques d'affaires et la performance boursière. Pour répondre à cette question de recherche, la méthodologie d'études d'événements a été retenue et, plus spécifiquement, le modèle ajusté du marché. En ce sens, ces études consistent à vérifier de façon empirique l'impact de l'occurrence de ces événements sur le prix des actions d'une entreprise autour de la date d'annonce. Le contenu informatif d'un événement économique devrait amener les investisseurs à réévaluer leur anticipation des flux monétaires futurs provenant des entreprises et, par conséquent, le prix des titres qu'ils possèdent ou qu'ils convoitent. En effet, les études d'événements sont typiquement utilisées pour mesurer l'impact économique des décisions managériales, telles les fusions et les acquisitions, les désinvestissements, le plan d'affaires, les nominations au conseil d'administration, les stratégies de R et D, et autres. Basée sur un échantillon de 87 firmes et de 46 pratiques d'affaires relatives aux entreprises biomédicales canadiennes cotées sur S&P-TSX, durant la période de janvier 2004 au 31 octobre 2007, cette méthodologie a permis de dégager des conclusions qui seront utiles aux dirigeants de ces entreprises et aux investisseurs boursiers. Dans l'ensemble, les observations confirment la présence des rendements anormaux positifs et significatifs dans les entreprises biomédicales le jour de la divulgation d'information publique sur les pratiques d'affaires. Aussi, nous avons observé une persistance relative à la suite du rendement anormal moyen observé cumulé dans les 10 jours qui suivent la divulgation de l'information, et à cette fin, nous avons les classifiées en trois catégories (+, 0,-) selon leur degré de significativité de leur persistance dans le but de les utiliser ultérieurement, soit à des fins de prévision, soit à des fins d'anticipation de performance boursière. Ainsi, cette étude a permis de confronter les prévisions de quelques experts et analystes boursiers de l'industrie biomédicale aux anticipations des investisseurs sur les marchés boursiers canadiens. Nous avons constaté que malgré les expertises détenues par ces acteurs, leur prévision sur la réaction des marchés boursiers face à certaines pratiques d'affaires ne suit pas la même trajectoire que les anticipations des investisseurs boursiers. Cette thèse démontre que certaines pratiques d'affaires jouent un rôle significatif dans la performance boursière des entreprises biomédicales canadiennes. Et, pour des raisons évidentes tenant à la volatilité des rendements selon les pratiques d'affaires, les périodes de temps ainsi qu'en raison du grand nombre de facteurs ayant une influence sur les rendements boursiers d'une entreprise biomédicale, nous constatons que la persistance des rendements anormaux des pratiques d'affaires n'est pas toujours associée statistiquement à la performance boursière d'une entreprise biomédicale.||Abstract : In the biomedical industries, the disclosure of the information relative to the business practices is currently used as one management tool capable of influencing the share price variation in the stock markets. This research identifies the strategies and the business practices usually valuated by the investors in the medical biotechnology industries. Do the biomedical companies have a measurement system of stock markets performance which helps their leaders and their board of directors to evaluate the efficiency of their business decision? This thesis studied the impact of the stock markets reaction on these business practices during the non financial communications. It drew up a fixtures inventory on the stock markets performance during the disclosure of the business practices and confirmed to the leaders of biomedical companies that certain business practices usually used by their companies are confidentially connected to the market capitalization of their activities, and that they have to spread them in strategies of valuation during the public announcements of information, and this, with the aim of supplying to the investors an evaluation capable of helping them to better manage their anticipations. From the methodology of event studies, based on a sample of 87 firms and 46 business practices relative to Canadian biomedical companies rated on S&P-TSX, over the period starting on January 1st 2004 and ending on October 31st 2007, our observations confirm the presence of the positive and significant abnormal return on the day public information about business practices has been disclosed. We also observed a relative persistence of certain business practices in the ten days following the disclosure of the information, and we have classified them into three categories (+,0,-) according to the degree of significance of their persistence in order to use them subsequently, either for the purpose of forecasting or the anticipation of the stock markets performance. Furthermore, this study allowed comparing the predictions of a few stock markets experts and analysts of the biomedical industries to the anticipations of investors in the Canadian stock markets. We also noticed that their predictions concerning certain business practices differ from the anticipations of the stock markets investors.
4

Modèle probabiliste de systèmes distribués et concurrents. Théorèmes limite et application à l'estimation statistique de paramètres

Abbes, Samy 14 October 2004 (has links) (PDF)
Pour la gestion de grands systèmes distribués (réseaux de<br />télécommunications par exemple) il est utile d'étudier des<br />modèles de concurrence sous la sémantique de traces. Dans<br />cette optique, on propose une extension probabiliste des<br />structures d'événements et des réseaux de Petri 1-bornés<br />(réseaux markoviens).<br />On prouve un propriété de Markov forte pour ces modèles,<br />et on donne des applications à la récurrence des réseaux.<br />On montre une Loi forte des grands nombres pour<br />les réseaux récurrents et suffisement synchrones,<br />avec applications a l'estimation statistique de<br />paramètres locaux.
5

Vers une plateforme pour l'extraction et la visualisation multi-échelle d'événements sociaux / Towards a Framework for Multiscale Social Event Extraction and Visualization

Rehman, Faizan Ur 07 December 2018 (has links)
La population des villes devrait doubler d'ici le milieu du siècle, selon les estimations de l’OMS. Cette augmentation rapide de la population a un impact sur les transports et la croissance économique, et accroîtra les responsabilités des autorités de gestion locales. Nous vivons une transformation des villes en villes intelligentes offrant de nouveaux services à la population, en optimisant l’utilisation des ressources disponibles. Qu'il s'agisse de données provenant des citoyens, de données gouvernementales ouvertes ou d'autres sources en ligne, une pluralité de sources de données peut permettre la création d’outils intelligents pour gérer efficacement les activités quotidiennes. De plus, grâce au progrès d'Internet et des technologies mobiles, les plateformes de réseaux sociaux (Twitter) sont devenues des modes de communication populaires. Elles permettent aux utilisateurs de partager un large éventail d'informations, y compris des données spatio-temporelles. Ainsi, Il est aisé d'accéder, en temps réel, à des connaissances provenant de différents types de données disponibles, riches, géo-référencées et issues de sources multiples et de les intégrer sur une carte. Il s'agit d'une réelle opportunité d'enrichir les cartes traditionnelles.Dans cette thèse, nous proposons d'abord un système de recommandation d'itinéraires, tenant compte des contraintes temps réel, en l'absence d'infrastructure physique ; en exploitant les données géolocalisées issues de réseaux sociaux (twitter) pour identifier les contraintes de trafic temps réel et, par conséquent, recommander un chemin optimisé. Nous avons mis en œuvre un système d'indexation à base de grille spatiale pour notre modèle de prédiction en quasi-temps réel. Ensuite, nous avons introduit le concept de "cartes intelligentes " intégrant la représentation visuelle de couches de « connaissances pertinentes » par le biais de la collecte, la gestion et l'intégration de sources de données hétérogènes. Contrairement aux cartes conventionnelles, les cartes intelligentes extraient des informations à partir des événements annoncés et découverts en temps réel (concerts, incidents, ...), les offres en ligne et les analyses statistiques (zones dangereuses, …) en encapsulant les données entrantes semi-structurées et non structurées dans des paquets génériques structurés.Cette méthodologie ouvre la voie à la fourniture de services et applications intelligents. De plus, le développement de ‘’cartes intelligentes’’ nécessite un traitement efficace et évolutif et la visualisation de couches basées sur les connaissances à plusieurs échelles cartographiques, permettant ainsi une navigation fluide et sans encombre. Enfin, nous présentons Hadath, un système évolutif et efficace qui extrait les événements sociaux d'une multitude de flux de données non structurés. Nous utilisons le traitement du langage naturel et les techniques de regroupement multidimensionnel pour extraire les ‘’événements pertinents’’ à différentes échelles cartographiques et pour déduire l'étendue spatio-temporelle des événements détectés.Le système comprend un composant de gestion et de prétraitement des différents types de sources de données et génère des paquets de données structurés à partir de flux non structurés. Notre système comprend également un schéma d'indexation spatio-temporelle hiérarchique en mémoire pour permettre un accès efficace et évolutif aux données brutes, ainsi qu'aux groupes d'événements extraits. Dans un premier temps, les paquets de données sont traités pour la découverte d’événements à l'échelle locale, puis l'étendue spatio-temporelle appropriée. Par conséquent, les événements détectés sont affichés à différentes résolutions spatio-temporelles, ce qui permet une navigation fluide. Enfin, pour valider notre approche, nous avons mené des expériences sur des flux de données réelles. Le résultat final du système proposé, nommé Hadath crée une expérience unique et dynamique de navigation cartographique. / The population in cities is slated to double by mid-century according to estimates prepared by the World Health Organization. This rapid increase in population will impact transportation and economic growth, and will increase responsibilities of local managing authorities and different stakeholders. It is a need of the hour to convert cities into smart cities in order to provide new service to the public, by using available resources in an optimum manner. From crowd-sourced data and open governmental data to other online sources, a variety of data sources can provide users with smart tools to efficiently manage their daily activities. Moreover, with the advancement in Internet and mobile technologies, social networking platforms such as Facebook and Twitter have become popular modes of communication. They allow users to share a spectrum of information, including spatio-temporal data, both publicly and within their community of interest in real-time. Scrutinizing knowledge from different types of available, rich, geo-tagged, and crowd-sourced data and incorporating it on a map has become more feasible. This presents a real opportunity to enrich traditional maps and enhance conventional spatio-temporal queries with the help of different types of data extracted from a variety of available data sources. In this thesis, we first propose a constraint-aware route recommendation system in lack of physical infrastructure environment that leverages geo-tagged data in social media and user-generated content to identify upcoming traffic constraints and, thus, recommend an optimized path. We have designed and developed a system using a spatial grid index to inform users about upcoming constraints and calculate a new, optimized path in minimal response time. Later, the concept of “smart maps” will be introduced by collecting, managing, and integrating heterogeneous data sources in order to infer relevant knowledge-based layers. Unlike conventional maps, smart maps extract information about live events (e.g., concert, competition, incidents, etc.), online offers, and statistical analysis (e.g., dangerous areas) by encapsulating incoming semi- and un-structured data into structured generic packets. This methodology sets the ground for providing different intelligent services and applications. Moreover, developing smart maps requires an efficient and scalable processing and the visualization of knowledge-based layers at multiple map scales, thus allowing a smooth and clutter-free browsing experience. Finally, we introduce Hadath, a scalable and efficient system that extracts social events from a variety of unstructured data streams. Hadath applies natural language processing and multi-dimensional clustering techniques to extract relevant events of interest at different map scales, and to infer the spatio-temporal extent of detected events. The system comprises a data wrapping component which digests different types of data sources, and prepossesses data to generate structured data packets out of unstructured streams. Hadath also implements a hierarchical in-memory spatio-temporal indexing scheme to allow efficient and scalable access to raw data, as well as to extracted clusters of events. Initially, data packets are processed to discover events at a local scale, then, the proper spatio-temporal extent and the significance of detected events at a global scale is determined. As a result, live events can be displayed at different spatio-temporal resolutions, thus allowing a smooth and unique browsing experience. Finally, to validate our proposed system, we conducted experiments on real-world data streams. The final output of our system named Hadath creates a unique and dynamic map browsing experience
6

NETAH, un framework pour la composition distribuée de flux d'événements / NETAH, A Framework for Composing Distributed Event Streams

Epal Njamen, Orleant 11 October 2016 (has links)
La réduction de la taille des équipements et l’avènement des communications sans fil ont fortement contribué à l’avènement d’une informatique durable. La plupart des applications informatiques sont aujourd’hui construites en tenant compte de cet environnement ambiant dynamique. Leur développement et exécution nécessite des infrastructures logicielles autorisant des entités à s’exécuter, à interagir à travers divers modes (synchrone et asynchrone), à s’adapter à leur(s) environnement(s) notamment en termes : - de consommation de ressources (calcul, mémoire, support de stockage, bases de données, connexions réseaux, ...), - de multiplicité des sources de données (illustrée par le Web, les capteurs, compteurs intelligents, satellites, les bases de données existantes, ...) - des formats multiples des objets statiques ou en flux (images, son, vidéos). Notons que dans beaucoup de cas, les objets des flux doivent être homogénéisées, enrichies, croisées, filtrées et agrégées pour constituer in fine des produits informationnels riches en sémantique et stratégiques pour les applications ou utilisateurs. Les systèmes à base d'événements particulièrement bien adaptés à la programmation de ce type d’applications. Ils peuvent offrir des communications anonymes et asynchrones (émetteurs/serveurs et récepteurs /clients ne se connaissent pas) qui facilitent l'interopération et la collaboration entre des services autonomes et hétérogènes. Les systèmes d’événements doivent être capables d'observer, transporter, filtrer, agréger, corréler et analyser de nombreux flux d’événements produits de manière distribuée. Ces services d’observation doivent pouvoir être déployés sur des architectures distribuées telles que les réseaux de capteurs, les smart-grid, et le cloud pour contribuer à l’observation des systèmes complexes et à leur contrôle autonome grâce à des processus réactifs de prise de décision. L’objectif de la thèse est de proposer un modèle de composition distribuée de flux d’événements et de spécifier un service d’événements capable de réaliser efficacement l’agrégation, la corrélation temporelle et causale, et l’analyse de flux d’événements dans des plateformes distribuées à base de services. TRAVAIL A REALISER (i) Etat de l’art - Systèmes de gestion de flux événements - Services et infrastructures d’événements distribués - Modèles d’événements (ii) Définition d’un scénario d’expérimentation et de comparaison des approches existantes. (iii) Définition d’un modèle de composition distribuée de flux d’événements à base de suscriptions (iv) Spécification et implantation d’un service distribuée de composition de flux d’événements. / The reduction in the size of equipments and the advent of wireless communications have greatly contributed to the advent of sustainable IT . Most computer applications today are built taking into account the dynamic ambient environment. Their development and execution need software infrastructure allowing entities to execute , interact through a variety of modes (synchronous and asynchronous ) , has to adapt to their (s) environment (s ), particularly in terms of: - resource consumption ( computation , memory , storage media , databases , networks connections , ... ) - the multiplicity of data sources ( illustrated by the Web , sensors, smart meters, satellites, existing data bases .. . ) - multiple formats of static objects or streams (images , sounds, videos ) . Note that in many cases , stream's objects have to be homogenized, enriched, filtered and aggregated to form informations rich in semantic and strategic for applications or end users. Event based systems are particularly well suited to the programming of such applications. They can offer anonymous and asynchronous communications ( transmitters / receivers and servers / clients do not know each others) that facilitate interoperation and cooperation between autonomous and heterogeneous services. The event systems should be able to observe, transport, filter, aggregate, correlate and analyze many events streams produced in a distributed way. These observation services must be able to be deployed on distributed architectures , such as sensor networks , smart -grid and cloud, to contribute to the observation of complex systems and their self-control via reactive decisions making processes. The aim of the thesis is to propose a model for distributed event flows composition and specify an event service that can effectively realize the aggregation , temporal and causal correlation , and analysis of flow events in distributed service -based platforms. WORK TO BE PERFORMED (i) State of the art: - Events flow management systems - distributed event services - event model ( ii ) Definition of a scenario for experimentation and comparison of existing approaches. ( iii ) Definition of a model of composition delivered a stream of events based superscriptions ( iv ) Specification and implementation of a distributed event flow composition service
7

Apprentissage à base de gradient pour l'extraction de caractéristiques dans les signaux sonores complexes

Lacoste, Alexandre January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
8

Sémantique des jeux asynchrones et réécriture 2-dimensionnelle

Mimram, Samuel 01 December 2008 (has links) (PDF)
Les sémantiques de jeux s'attachent à caractériser le comportement interactif des preuves et des programmes, en les modélisant par des stratégies qui décrivent la façon dont ils réagissent à leur environnement. Afin de prendre en compte les aspects concurrents des preuves en logique linéaire, nous avons été amenés à retravailler les notions et techniques classiques de sémantique des jeux pour les étendre à un cadre asynchrone et non-alterné. Dans une première partie, nous définissons une famille de stratégies asynchrones donnant lieu à un modèle de logique linéaire, pleinement complet pour le fragment multiplicatif. Ces stratégies sont définies de façon locale par une série d'axiomes diagrammatiques ; elles sont ensuite raffinées par un critère dynamique d'ordonnancement, dont nous montrons qu'il impose une version orientée du critère de correction des réseaux de preuve. Cette formulation asynchrone permet d'unifier des modèles variés de la logique linéaire - aussi bien séquentiels que concurrents, dynamiques que statiques - où les preuves sont vues comme des stratégies séquentielles, des stratégies concurrentes, des relations ou des structures d'événements. Dans une seconde partie, nous abordons une autre approche pour décrire la causalité induite par les preuves et introduisons une sémantique de jeux capturant les dépendances engendrées par les connecteurs du premier ordre en logique propositionnelle. Nous montrons que la catégorie résultante peut être finiment présentée par un 2-polygraphe et étudions la possibilité d'orienter cette présentation en un système de réécriture confluent, notamment en introduisant un algorithme d'unification dans ce cadre 2-dimensionnel.
9

Raconter deux événements simultanés : Le rôle de l'aspect en déroulement en arabe tunisien L1, français L1 et français L2 par des Tunisiens immigrés en France

Saddour, Inès 27 November 2010 (has links) (PDF)
Notre thèse porte sur le rôle du marquage aspectuel dans le marquage de la simultanéité d'évènements en arabe tunisien L1, en français L1 et en français L2 par des apprenants tunisiens à travers différents stades acquisitionnels. Nous examinons la manière dont les marqueurs explicites de l'aspect en déroulement qa:'id et "en train de" en arabe tunisien et en français respectivement, sont employés pour exprimer cette relation temporelle, en concurrence avec les formes, la forme verbale préfixée en arabe tunisien et le présent de l'indicatif en français. Nous utilisons une tâche verbale complexe de récits d'évènements simultanés, qui partagent un intervalle sur l'axe du temps, basée sur huit vidéos qui présentent deux situations se déroulant en parallèle. Deux types de simultanéité sont exploités : La simultanéité parfaite (quand les deux situations sont parallèles) et l'emboîtement (quand une situation est cadrée par une autre situation). Nos informateurs en français et en arabe tunisien ont deux profiles, très scolarisés et très peu ou pas du tout scolarisés. Nous montrons que la réponse des informateurs à la tâche ainsi que leur emploi des marqueurs de l'aspect en déroulement pour exprimer la simultanéité varient selon leurs profiles. Nous expliquons la différence observée entre les deux groupes par le développement de leurs habitudes de répondre aux tâches. Ceci est une compétence qui est particulièrement acquise avec la scolarisation. Nous remarquons qu'en général, l'emploi de qa:'id et de "en train de" est moins fréquent que celui des formes simples. Cependant, qa:'id ainsi que "en train de" jouent un rôle discursif, au delà du niveau de la proposition. Nous postulons que malgré les similarités entre les deux langues en ce qui concerne le marquage de l'aspect en déroulement, notamment, la présence de marqueurs lexicaux, pas complètement grammaticalisés qui coexistent avec des formes non marquées, la manière dont ils s'emploient dans le discours d'évènements simultanés montre des différences importantes. Nous expliquons que "en train de" joue un rôle plus contrastif que qa:'id et que son emploi dans le discours obéit à des règles plus strictes. En ce qui concerne l'emboîtement, il décrit un évènement globalisant qui encadre le deuxième. Dans le cas d'évènements parfaitement simultanés, et quand "en train de" et présent de l'indicatif sont utilisés, la proposition contenant "en train de" précède généralement celle qui contient la proposition avec présent de l'indicatif. qa:id n'obéit pas à une telle règle et peut être employé avant ou après la forme simple. L'analyse contrastive du français L1 et L2 révèle que l'utilisation des apprenants des marqueurs de l'aspect en déroulement dévie de celle des francophones natifs. Ils généralisent l'emploi de "en train de" et appliquent des règles différentes quant à l'interaction entre les différentes formes marquées et non marquées dans le discours. Les apprenants ne maîtrisent pas son rôle dans le discours même à des stades acquisitionnels très avancés, malgré son possible émergence dans les variétés basique et intermédiaire. Nous concluons que l'emploi du marqueur "en train de" par des francophones natifs implique la maitrise de son rôle au niveau discursif. Ce rôle n'étant pas facilement accessible de l'input peut représenter une vraie difficulté pour les apprenants dans l'acquisition de la périphrase.
10

Time Sequence Summarization: Theory and Applications

Pham, Quang-Khai 09 July 2010 (has links) (PDF)
Les domaines de la médecine, du web, du commerce ou de la nance génèrent et stockent de grandes masses d'information sous la forme de séquences d'événements. Ces archives représentent des sources d'information très riches pour des analystes avides d'y découvrir des perles de connaissance. Par exemple, les biologistes cherchent à découvrir les facteurs de risque d'une maladie en analysant l'historique des patients, les producteurs de contenu web et les bureaux de marketing examinent les habitudes de consommation des clients et les opérateurs boursiers suivent les évolutions du marché pour mieux l'anticiper. Cependant, ces applications requièrent l'exploration de séquences d'événements très volumineuses, par exemple, la nance génère quotidiennement des millions d'événements, où les événements peuvent être décrits par des termes extraits de riches contenus textuels. La variabilité des descripteurs peut alors être très grande. De ce fait, découvrir des connaissances non triviales à l'aide d'approches classiques de fouille de données dans ces sources d'information prolixes est un problème dicile. Une étude récente montre que les approches classiques de fouille de données peuvent tirer prot de formes condensées de ces données, telles que des résultats d'agrégation ou encore des résumés. La connaissance ainsi extraite est qualiée de connaissance d'ordre supérieur. À partir de ce constat, nous présentons dans ces travaux le concept de résumé de séquence d'événements dont le but est d'amener les applications dépendantes du temps à gagner un facteur d'échelle sur de grandes masses de données. Un résumé s'obtient en transformant une séquence d'événements où les événements sont ordonnés chronologiquement. Chaque événement est précisément décrit par un ensemble ni de descripteurs symboliques. Le résumé produit est alors une séquence d'événements, plus concise que la séquence initiale, et pouvant s'y substituer dans les applications. Nous proposons une première méthode de construction guidée par l'utilisateur, appelée TSaR. Il s'agit d'un processus en trois phases : i) une généralisation, ii) un regroupement et iii) une formation de concepts. TSaR utilise des connaissances de domaine exprimées sous forme de taxonomies pour généraliser les descripteurs d'événements. Une fenêtre temporelle est donnée pour contrôler le processus de regroupement selon la proximité temporelle des événements. Dans un second temps, pour rendre le processus de résumé autonome, c'est- à-dire sans paramétrage, nous proposons une redénition du problème de résumé en un nouveau problème de classication. L'originalité de ce problème de classication tient au fait que la fonction objective à optimiser dépend simultanément du contenu des événements et de leur proximité dans le temps. Nous proposons deux algorithmes gloutons appelés G-BUSS et GRASS pour répondre à ce problème. Enn, nous explorons et analysons l'aptitude des résumés de séquences d'événements à contribuer à l'extraction de motifs séquentiels d'ordre supérieur. Nous analysons les caractéristiques des motifs fréquents extraits des résumés et proposons une méthodologie qui s'appuie sur ces motifs pour en découvrir d'autres, à granularité plus ne. Nous évaluons et validons nos approches de résumé et notre méthodologie par un ensemble d'expériences sur un jeu de données réelles extraites des archives d'actualités nancières produites par Reuters.

Page generated in 0.0869 seconds