• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 2
  • Tagged with
  • 7
  • 7
  • 7
  • 7
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Développement d'une nouvelle technique de compression pour les codes variables à fixes quasi-instantanés

Haddad, Fatma 24 April 2018 (has links)
Pas toutes les techniques de compression des données adoptent le principe de dictionnaire pour représenter ses mots de code. Le dictionnaire est un ensemble de mots de code associés aux symboles sources lors de l’opération d’encodage. La correspondance entre le mot de code et le symbole source dépend de l’algorithme de compression adopté. Généralement, chaque algorithme construit son dictionnaire selon un ensemble de propriétés. Parmi ces propriétés nous avons celle de préfixe. Elle est primordiale pour les codes de type fixe à variable (FV) tels que l’algorithme de Huffman et celui de Shannon-Fano. Par contre, la propriété préfixe est optionnelle pour les codes de longueur variable à fixe (VF). Donc cela peut causer le but de pouvoir construire un dictionnaire plus performant, comme le cas des codes quasi-instantanés. Dans cette optique, Yamamoto et Yokoo ont éliminé cette condition pour créer un dictionnaire meilleur que celui de Tunstall. Les dictionnaires proposés par Yamamoto et Yokoo sont appelés les codes VF quasi-instantanés ou en anglais almost instantaneous VF codes. En s’appuyant sur leurs contributions, nous avons déduit que leur technique peut fournir dans certains cas des codes variables à fixes sous-optimaux, d’où notre suggestion de correctifs à leurs algorithmes pour en améliorer l’efficacité. Aussi nous proposons un autre mécanisme pour construire des codes VF en utilisant le principe de la programmation dynamique. / Various techniques of data compression use a dictionary to represent their codewords. A dictionary is a set of codewords associated with the source symbols during the encoding operation. The correspondence between the codeword and the symbol source depends on the compression algorithm. Usually, the prefix property is key for the fixed-to-variable type codes FV as demonstrated in the Huffman and the Shannon-Fano algorithms. However, such a property may be eliminated for fixed-length codes in order to build a more efficient dictionary. In this context, Yamamoto and Yokoo excluded this condition to create a dictionary better than Tunstall. This new dictionary is called instantaneous variable-to-fixed code. Based on their contributions, we have deduced that their technique can provide, in some cases, suboptimal variable-to-fixed codes. Hence, we suggested to improve their algorithms. Also, we proposed another mechanism for building optimal AIVF codes by adopting the principle of dynamic programming.
2

L'audit de contenu en architecture d'information : examen de la méthode à travers les écrits d'experts

Sperano, Isabelle 24 April 2018 (has links)
Depuis une vingtaine d’années, le Web s’est imposé comme média privilégié par une variété d’organisations (instances gouvernementales, entreprises, organismes, etc.) pour transmettre une quantité substantielle d’informations à leurs destinataires. La mise en place adéquate de ces imposantes structures informationnelles dépend, entre autres, de spécialistes de l’information et de la communication de divers champs d’expertise, dont l’architecture d’information (AI). Dans la mesure où l’accès à une information particulière constitue l’objectif principal d’une majorité d’activités de recherche sur le Web, ces spécialistes portent normalement une grande attention au contenu présenté. Pour ce faire, différentes méthodes visant à mieux appréhender le contenu ont vu le jour depuis quelques années. L’audit de contenu est l’une d’elles. Considérée par plusieurs spécialistes comme incontournable, cette méthode experte vise à identifier, à dénombrer, à décrire et à évaluer le contenu d’un site Web ou d’un écosystème informationnel plus vaste en le confrontant à une liste de critères d’analyse (ex. : genre, style, pertinence). La communauté d’AI se heurte actuellement à un déficit de recherche à propos de l’audit de contenu. En effet, rares, voire inexistants, sont les travaux de recherche qui en rendent compte de manière exhaustive. Fort d’une validation plutôt informelle effectuée en grande partie par des praticiens, l’audit de contenu se voit en revanche abondamment décrit et commenté dans une foule d’écrits professionnels. C’est ce qui nous a menée à examiner un corpus d’écrits d’experts abordant l’audit de contenu (ouvrages, publications Web, articles). Cette recherche procède à un examen approfondi de l’audit de contenu comme méthode d’évaluation de l’architecture d’information d’un écosystème informationnel numérique. Plus précisément, cette recherche dresse un portait des publications abordant l’audit de contenu et de leurs auteurs, définit l’audit de contenu, cerne ses principales caractéristiques, fait l’examen des activités et des protocoles d’audit de contenu et, enfin, analyse les critères d’audit de contenu. Les résultats mettent en lumière une importante disparité entre les propos des auteurs des publications du corpus. Que ce soit concernant la dénomination de la méthode, sa définition, ses caractéristiques, ses activités ou ses critères, le discours présenté dans chaque publication du corpus exprime de manière fragmentaire les savoirs disciplinaires à propos de l’audit de contenu. Nous observons aussi que les savoirs relatifs à la méthode ne cernent que partiellement la réalité informationnelle des organisations. En filigrane des écrits relatifs à l’audit de contenu, on constate que le discours actuel à propos de cette méthode est le reflet d’une approche plutôt traditionnelle de l’architecture d’information. Mots-clés : audit de contenu, inventaire du contenu, architecture d’information, évaluation experte. / For twenty years, the Web has emerged as the favoured s of communication by a variety of organisations (governments, businesses, organisations, etc.) to deliver a substantial amount of information to their recipients. The proper implementation of these imposing informational structures depends, inter alia, on information and communication specialists in various fields of expertise, including information architecture (IA). Insofar as access to particular information is the main purpose of a majority of research activities on the Web, these specialists should pay special attention to content. To do so, different methods intended to provide a better understanding of content have emerged in recent years. Content audit is one of them. Considered by many specialists as indispensable, this expert method aims to identify, count, describe and evaluate the content of a website by confronting it to a list of analysis criteria (e.g.: genre, style, relevance). The IA community is currently facing a deficit of research about content audit. Indeed, research about this method is rare, if non-existent. Content audit is, however, extensively described and commented in a host of professional writing. This is what led us to examine a corpus of experts’ writing addressing content audit (book, Web documents, articles). Our research aims to carry out a thorough review of content audit as an information architecture evaluation method. Specifically, this research describes publication addressing content audit and their authors, defines content audit and identifies its main features, examines and content audit activities and protocols, and finally analyses content audit criteria. Our results highlight a significant disparity between the authors’ discourse. Whatsoever concerning the description of the method, its definition, its characteristics, its activities, or these criteria, the speech presented in each publication expresses fragmentally the disciplinary knowledge about content audit. We also observe that the current content audit-related knowledge covers only partially the organisations’ informational reality. Finally, we note that the current discourse about the method displays a reflection of a rather traditional information architecture approach. Keywords : content audit, content inventory, information architecture, expert evaluation.
3

Tensor-based regression models and applications

Hou, Ming 24 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2017-2018 / Avec l’avancement des technologies modernes, les tenseurs d’ordre élevé sont assez répandus et abondent dans un large éventail d’applications telles que la neuroscience informatique, la vision par ordinateur, le traitement du signal et ainsi de suite. La principale raison pour laquelle les méthodes de régression classiques ne parviennent pas à traiter de façon appropriée des tenseurs d’ordre élevé est due au fait que ces données contiennent des informations structurelles multi-voies qui ne peuvent pas être capturées directement par les modèles conventionnels de régression vectorielle ou matricielle. En outre, la très grande dimensionnalité de l’entrée tensorielle produit une énorme quantité de paramètres, ce qui rompt les garanties théoriques des approches de régression classique. De plus, les modèles classiques de régression se sont avérés limités en termes de difficulté d’interprétation, de sensibilité au bruit et d’absence d’unicité. Pour faire face à ces défis, nous étudions une nouvelle classe de modèles de régression, appelés modèles de régression tensor-variable, où les prédicteurs indépendants et (ou) les réponses dépendantes prennent la forme de représentations tensorielles d’ordre élevé. Nous les appliquons également dans de nombreuses applications du monde réel pour vérifier leur efficacité et leur efficacité. / With the advancement of modern technologies, high-order tensors are quite widespread and abound in a broad range of applications such as computational neuroscience, computer vision, signal processing and so on. The primary reason that classical regression methods fail to appropriately handle high-order tensors is due to the fact that those data contain multiway structural information which cannot be directly captured by the conventional vector-based or matrix-based regression models, causing substantial information loss during the regression. Furthermore, the ultrahigh dimensionality of tensorial input produces huge amount of parameters, which breaks the theoretical guarantees of classical regression approaches. Additionally, the classical regression models have also been shown to be limited in terms of difficulty of interpretation, sensitivity to noise and absence of uniqueness. To deal with these challenges, we investigate a novel class of regression models, called tensorvariate regression models, where the independent predictors and (or) dependent responses take the form of high-order tensorial representations. We also apply them in numerous real-world applications to verify their efficiency and effectiveness. Concretely, we first introduce hierarchical Tucker tensor regression, a generalized linear tensor regression model that is able to handle potentially much higher order tensor input. Then, we work on online local Gaussian process for tensor-variate regression, an efficient nonlinear GPbased approach that can process large data sets at constant time in a sequential way. Next, we present a computationally efficient online tensor regression algorithm with general tensorial input and output, called incremental higher-order partial least squares, for the setting of infinite time-dependent tensor streams. Thereafter, we propose a super-fast sequential tensor regression framework for general tensor sequences, namely recursive higher-order partial least squares, which addresses issues of limited storage space and fast processing time allowed by dynamic environments. Finally, we introduce kernel-based multiblock tensor partial least squares, a new generalized nonlinear framework that is capable of predicting a set of tensor blocks by merging a set of tensor blocks from different sources with a boosted predictive power.
4

Cadre architectural pour le développement d'une application d'apprentissage mobile destinée à un établissement d'enseignement

Sallem, Imen 24 April 2018 (has links)
L’évolution des technologies mobiles ainsi que la diversité des appareils mobiles et leurs caractéristiques, ont favorisé leur exploitation dans le domaine de l’éducation. En effet, il existe plusieurs applications d’apprentissage mobiles à des fins didactiques, offrant une multitude de fonctionnalités. Ces fonctionnalités traduisent des besoins pédagogiques pour l’apprenant et l’enseignant. Cependant, suite à une revue de littérature et à notre connaissance, il n’existe pas de support à la conception des applications mobiles destinées à l’enseignement et à l’apprentissage, permettant de mettre en oeuvre les fonctionnalités dont les membres d’un établissement d’enseignement ont besoin. Comme solution, ce mémoire propose un cadre architectural pour le développement d’une application d’apprentissage mobile en éducation. Plus spécifiquement, une revue de littérature a permis de révéler un ensemble de fonctionnalités qui définissent différents scénarios pédagogiques. Ces fonctionnalités ont été classifiées, spécifiées et formalisées suivant un langage de modélisation. En s’appuyant sur ce travail de formalisation, un modèle d’architecture générique a été proposé. Ce modèle a été conçu de façon modulaire, ce qui est avantageux dans le cas d’ajout de nouvelles fonctionnalités, le modèle pourrait facilement évoluer. En outre, le modèle proposé pourrait servir de guide pour des développeurs qui désirent implémenter des applications d’apprentissage mobiles éducationnelles. Le modèle architectural a été validé par le développement d’un prototype. Ce prototype a permis d’effectuer une vérification fonctionnelle des différentes fonctionnalités. Pour la suite de ce mémoire, d’autres travaux peuvent être réalisés pour compléter les résultats obtenus. Une application pourrait être développée afin de faire tester notre proposition par des enseignants et des étudiants. L’intégration de l’application mobile développée dans un système existant, au sein d’un établissement d’enseignement tel une université, pourrait également être envisagée. On pourrait aussi envisager d’étudier et d’analyser la manière dont les apprenants utilisent l’application. / The evolution of mobile technologies as well as the diversity of mobile devices and their characteristics have increased the use of these devices in educational field. As a matter of fact, there is numerous mobile learning applications for didactic purposes, which offer a large set of functionalities. These functionalities respond to pedagogical needs for both the student and the teacher. However, after a literature review and at our best knowledge, there is no support for the design of mobile applications for teaching and learning, which implement the functionalities that members in educational institution need. As a solution, this master thesis proposes a design framework for the development of a mobile learning application. More specifically, a literature review revealed a set of functionalities that defines different pedagogical scenarios. These functionalities have been classified, specified and formalized using a modeling language. Having this formalisation, a generic architectural model has been proposed. This model has been designed in modules which will facilitate the adding of new functionalities so the model will easily evolve. Therefore, the proposed model could serve as a guide for developers who wish to implement educational mobile learning applications. The design model has been validated by the development of a prototype. This prototype served as a functional check of the different functionalities. Further work can be done to complete the results obtained. An application could be developed to test our proposition by teachers and students. The integration of the developed application into an existing system within an educational institution such as an university, could be possible. Consideration could also be given to studying and analyzing how learners use the application.
5

Four-bar linkage synthesis using non-convex optimization

Goulet, Vincent 24 April 2018 (has links)
Ce mémoire présente une méthode pour synthétiser automatiquement des mécanismes articulés à quatre barres. Un logiciel implémentant cette méthode a été développé dans le cadre d’une initiative d’Autodesk Research portant sur la conception générative. Le logiciel prend une trajectoire en entrée et calcule les paramètres d’un mécanisme articulé à quatre barres capable de reproduire la même trajectoire. Ce problème de génération de trajectoire est résolu par optimisation non-convexe. Le problème est modélisé avec des contraintes quadratiques et des variables réelles. Une contrainte redondante spéciale améliore grandement la performance de la méthode. L’expérimentation présentée montre que le logiciel est plus rapide et précis que les approches existantes. / This thesis presents a method to automatically synthesize four-bar linkages. A software implementing the method was developed in the scope of a generative design initiative at Autodesk. The software takes a path as input and computes the parameters of a four-bar linkage able to replicate the same path. This path generation problem is solved using non-convex optimization. The problem is modeled with quadratic constraints and real variables. A special redundant constraint greatly improves the performance of the method. Experiments show that the software is faster and more precise than existing approaches.
6

Une démarche de gestion stratégique et opérationnelle du changement dans le contexte de l'exploitation avancée de données massives internes aux organisations

Gueye, Ndeye 17 July 2018 (has links)
L’objectif de ce mémoire est d’élaborer une démarche de gestion du changement destinée aux organisations qui souhaitent mettre en place les transformations nécessaires pour tirer parti des techniques d’exploitation avancée de données massives. Le domaine de transformation choisi dans le cadre de ce mémoire est l’exploitation des données internes à une organisation pour développer une maturité technologique et organisationnelle, notamment en ce qui concerne l’orientation-client de son modèle d’affaires. Cette évolution de maturité a pour but de suivre la transformation de la société actuelle, fortement influencée par le mouvement Big Data. La démarche proposée s’adresse à des organisations dont la maturité technologique et organisationnelle est éloignée de celle des compagnies leaders de cette transformation « digitale ». Nous proposons un cadre méthodologique stratégique et opérationnel permettant aux organisations d'effectuer les transformations de culture, d'organisation, de gestion et d'adoption de techniques pour se lancer dans l'exploitation avancée de leurs données internes qui sont en forts volumes et mal structurées. L'application pratique de notre cadre méthodologique est illustrée dans le cas d'une grande compagnie d'assurance canadienne sur une période de deux ans. Nous avons également réalisé un projet pilote de 9 mois visant à tester la phase de mise en oeuvre de la gestion stratégique du changement en exploitant les données-clients internes à cette compagnie d’assurance. Nous avons élaboré, raffiné et testé ces démarches en plusieurs itérations afin de proposer des méthodes détaillées, illustrées par des actions qui conduisent à des résultats concrets et qui mettent en évidence certains enjeux ou difficultés liés à l’adoption de ce type d’approches. À l’issu de notre projet, la démarche proposée a été adoptée par la compagnie à des fins d’opérationnalisation.
7

L'algorithme de Pacman pour la construction efficace des codes équilibrés

Mechqrane, Mounir 24 April 2018 (has links)
Un bloc de bits est équilibré s’il contient un nombre de bits à 0 égal à celui des bits à 1. Les codes équilibrés (Balanced Codes, BC) sont largement appliqués dans plusieurs domaines. Par exemple, ils sont utilisés pour réduire le bruit dans les systèmes VLSI (Tabor, 1990). Dans le domaine de la télécommunication, ils sont utilisés dans la synchronisation et la transmission des données par fibre optique (Bergmann et al., 1986). Leur utilisation dans le domaine de l’identification par radiofréquence (RFID) permet d’augmenter les taux de transfert de données via les canaux RFID (Durgin, 2015). Étant donnée leur importance, plusieurs travaux de recherche ont été menés pour optimiser leur construction. Knuth fut le premier à trouver une méthode simple et rapide pour l’élaboration des codes équilibrés (Knuth, 1986). Il a introduit un algorithme très simple pour générer les codes équilibrés sans l’utilisation des tables de correspondance. Cependant, cet algorithme ajoute presque le double de la redondance minimale nécessaire pour la création des codes équilibrés. Une partie de cette redondance est due à la multiplicité d’encodage (ME) de cet algorithme. Plusieurs chercheurs ont essayé de réduire la redondance de l’algorithme de Knuth (Immink et Weber, 2009a, 2010; Immink et al., 2011; Al-Rababa’a et al., 2013). Dans les derniers travaux de Al-Rababa’a et al. (2013), les auteurs ont réussi à éliminer la redondance créée par ME et pourtant un écart par rapport au seuil minimal subsiste. Ce travail présente une alternative à l’algorithme de Knuth pour créer les codes équilibrés sans surplus de redondance. Nous proposons un algorithme nommé « Pacman » ¹ basé sur les permutations et les nombres entiers à précision limitée. En effet, le processus de codage de cet algorithme peut être assimilé à un Pacman qui consomme et produit des blocs d’informations d’une façon cyclique. Au cours de ce travail, nous allons montrer analytiquement et expérimentalement que la redondance introduite par notre technique est particulièrement faible, que les résultats sont nettement meilleurs que ceux des travaux antérieurs et que les complexités temporelle et spatiale utilisées sont linéaires. ¹. Inspiré de la marque de commerce PAC-MAN de l’entreprise BANDAI NAMCO. / A block of m bits is said to be balanced if it contains an equal number of zeros and ones. Note that m has to be an even number. Balanced codes (BC) have applications in several domains. For example, they are used to reduce noise in VLSI systems (Tabor, 1990). In telecommunication, they are used in synchronization and data transmission by optical fibers (Bergmann et al., 1986). Their use in the field of radio frequency identification (RFID) can help to boost data transfer rate through RFID channels (Durgin, 2015). Given their importance, several research works have been carried out to optimize their construction. Knuth was the first to find a simple and fast method to create balanced codes (Knuth, 1986). He introduced a very simple algorithm to generate balanced codes without using lookup tables. However, Knuth’s balanced codes incur redundancy that is almost twice the one attested by the lower bound. A part of this redundancy is due to the multiplicity of encoding (ME) of this algorithm. Improvements to the Knuth’s algorithm are discussed in several research works (Immink et Weber, 2009a, 2010; Immink et al., 2011; Al-Rababa’a et al., 2013). In the last one (Al-Rababa’a et al., 2013), redundancy created by ME was eliminated and yet there is still some gap that needs to be closed. This work presents an alternative to Knuth’s algorithm for creating balanced codes without unwanted redundancy overhead. We propose an algorithm called "Pacman" ² that is based on permutations and limited-precision integers. Indeed, the coding process of this algorithm can be assimilated to a special Pacman that consumes and produces pills of information in a cyclical manner. In the presented work, we prove analytically and experimentally that our algorithm closes the mentioned redundancy gap while preserving a favorable compromise between calculation speed and memory consumption. ². Inspired by the trademark PAC-MAN of BANDAI NAMCO.

Page generated in 0.0296 seconds