• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 185
  • 60
  • 14
  • 5
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 289
  • 100
  • 76
  • 60
  • 57
  • 43
  • 38
  • 35
  • 33
  • 33
  • 28
  • 27
  • 27
  • 25
  • 25
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Étude comportementale et conception d'un réseau d'oscillateurs couplés intégré en technologie silicium appliqué à la commande d'un réseau d'antennes linéaire / Analysis and design of a coupled oscillators array integrated in silicon technology and applied to control linear antenna arrays

Mellouli Moalla, Dorra 19 December 2013 (has links)
Le travail présenté dans ce mémoire traite de l’étude comportementale, de la conception et de la validation d’une nouvelle architecture, basée sur le couplage d’O.C.T différentiels, appliquée à la commande électronique de l’orientation du diagramme de rayonnement d’un réseau d’antennes linéaire. Après avoir optimisé la structure de l’O.C.T différentiel, qui constitue le corps du circuit de commande, selon une méthode graphique qui visualise les différentes contraintes imposées par le système afin de minimiser son bruit de phase et sa consommation, l’O.C.T à sorties différentielles a été réalisé en technologie NXP BiCMOS SiGe 0,25 μm puis mesuré en boîtier. Etant donné que la direction de rayonnement d’une antenne réseau dépend de la valeur du déphasage imposé entre les signaux envoyés sur deux antennes adjacentes, les équations théoriques modélisant deux O.C.T couplés et permettant d’extraire les amplitudes et le déphasage entre les différents signaux ont été décrites. La dernière étape a alors consisté en la réalisation de deux réseaux constitués respectivement de deux et de quatre O.C.T couplés au moyen d’une résistance puis d’un transistor MOS fonctionnant en zone ohmique. L’approche de couplage proposée a été validée en se basant sur les résultats de mesures effectués. De plus, l’impact de l’utilisation de structures différentielles sur la plage de déphasage obtenue et donc sur le dépointage réalisé a également été présenté ce qui nous a permis de conclure sur l’efficacité du circuit de commande proposé. / The work presented in this thesis deals with the study, design, and validation of a new architecture based on the coupling of differential voltage controlled oscillators (VCO) applied to the beamsteering of a linear antenna array. After optimizing the differential VCO structure, with a graphical optimization approach while satisfying design constraints imposed, in order to minimize the phase noise and power consumption, the differential VCO was realized in NXP BiCMOS SiGe 0.25 µm process and then measured. Since the radiation direction of an antenna array depends on the phase difference imposed between the two signals on adjacent antennas, the theoretical equations modeling two coupled VCOs, and allowing the extraction of the amplitude and phase difference between the outputs signals have been presented. The last step was the realization of two arrays consisting respectively of two and four VCOs coupled through a resistor and a MOS transistor operating in the triode region. The proposed coupling approach is validated based on the obtained measurement results. Furthermore, the impact of the use of differential structures on the phase shift range obtained and thus on the beam-scanning range achieved was also presented allowing to conclude on the efficiency of the proposed architecture.
202

Les procédés de déchiffrement de l'écriture archaïque sur os et écailles de tortue : (Chine antique, XIIIe-XIe siècle av. J.-C.)

Plucar, Jiří 06 December 2013 (has links)
Après plus de cent ans de recherche sur les inscriptions gravées sur os et écailles de tortue datant de la fin de la dynastie Shāng, ce matériel graphique réévalue la paléographie chinoise qui est née au fur et à mesure de l’évolution de l’étude des inscriptions sur bronze entamée par les lettrés Sòng. Cette discipline à part entière qui est désormais inscrite dans l’étude de l’écriture chinoise, est marquée par le caractère interdisciplinaire qu’implique une approche multilatérale au vu de l’emploi de cette écriture en Chine antique du XIIIème au XIème siècle av. J.-C. dans un contexte de divination de la maison royale Shāng. Le présent travail se concentre sur l’identification et la compréhension de cette écriture, dont le déchiffrement constitue la tâche principale. Le déchiffrement graphique est soumis à l’épreuve visant à le définir et, tout particulièrement, à le systématiser dans un contexte philologique et culturel spécifique. La présente thèse se consacre à la tâche de repérer une méthodologie de base du déchiffrement de l’écriture sur os et écailles dans le cadre de l’avancement de son étude tout au long du XXème siècle et jusqu’à nos jours. / The inscriptions on bones and tortoise shells of the late Shāng dynasty have been studied for more than one hundred years. These graphical materials have given a new value to Chinese palaeography which was developed gradually from the studies of bronze inscriptions by Sòng scholars. This independent discipline has now become part of the science of Chinese writing and is marked by its interdisciplinary character and multilateral approach. Such an approach is required in the investigation of a writing system that goes back to the 13th-11th centuries BC period, when it was used for divinatory purposes in China during the rule of the Shāng royal dynasty. This paper focuses on the identification and comprehension of this script with the ultimate objective of deciphering it. Graphical deciphering is tested in order to define and systematize it in a specific philological and cultural background. The main thrust of the paper is the search for a fundamental methodology of the deciphering process of oracle bone inscriptions in the framework of the advancement of this process in the course of the 20th century and until now.
203

Classification du texte numérique et numérisé. Approche fondée sur les algorithmes d'apprentissage automatique / Text and Image based classification of documents using machine and representation learning

Sayadi, Karim 28 March 2017 (has links)
Différentes disciplines des sciences humaines telles la philologie ou la paléographie font face à des tâches complexes et fastidieuses pour l'examen des sources de données. La proposition d'approches computationnelles en humanités permet d'adresser les problématiques rencontrées telles que la lecture, l'analyse et l'archivage de façon systématique. Les modèles conceptuels élaborés reposent sur des algorithmes et ces derniers donnent lieu à des implémentations informatiques qui automatisent ces tâches fastidieuses. La première partie de la thèse vise, d'une part, à établir la structuration thématique d'un corpus, en construisant des espaces sémantiques de grande dimension. D'autre part, elle vise au suivi dynamique des thématiques qui constitue un réel défi scientifique, notamment en raison du passage à l'échelle. La seconde partie de la thèse traite de manière holistique la page d'un document numérisé sans aucune intervention préalable. Le but est d'apprendre automatiquement des représentations du trait de l'écriture ou du tracé d'un certain script par rapport au tracé d'un autre script. Il faut dans ce cadre tenir compte de l'environnement où se trouve le tracé : image, artefact, bruits dus à la détérioration de la qualité du papier, etc. Notre approche propose un empilement de réseaux de neurones auto-encodeurs afin de fournir une représentation alternative des données reçues en entrée. / Different disciplines in the humanities, such as philology or palaeography, face complex and time-consuming tasks whenever it comes to examining the data sources. The introduction of computational approaches in humanities makes it possible to address issues such as semantic analysis and systematic archiving. The conceptual models developed are based on algorithms that are later hard coded in order to automate these tedious tasks. In the first part of the thesis we propose a novel method to build a semantic space based on topics modeling. In the second part and in order to classify historical documents according to their script. We propose a novel representation learning method based on stacking convolutional auto-encoder. The goal is to automatically learn plot representations of the script or the written language.
204

Extension des méthodes de géométrie algorithmique aux structures fractales / Extension of algorithmic geometry to fractal structures

Mishkinis, Anton 27 November 2013 (has links)
La définition de formes par ces procédés itératifs génère des structures avec des propriétésspécifiques intéressantes : rugosité, lacunarité. . . . Cependant, les modèles géométriques classiquesne sont pas adaptés à la description de ces formes.Dans le but de développer un modeleur itératif pour concevoir des objets fractals décrits à l’aide duBCIFS, nous avons développé un ensemble d’outils et d’algorithmes génériques qui nous permettentd’évaluer, de caractériser et d’analyser les différentes propriétés géométriques (la localisation, lecalcul de l’enveloppe convexe, de la distance à partir d’un point, etc) de fractals. Nous avons identifiéles propriétés des opérations standards (intersection, union, offset, . . . ) permettant de calculer uneapproximation d’image des fractales et de plus d’optimiser ces algorithmes d’approximation.Dans certains cas, il est possible de construire un CIFS avec l’opérateur de HUTCHINSON généralisédont l’attracteur est suffisamment proche du résultat de l’opération par rapport à la métrique deHausdorff. Nous avons développé un algorithme générique pour calculer ces CIFS pour une précisiondonnée. Nous avons défini la propriété d’auto-similarité de l’opération, qui définie un ensemble detransformations utilisé dans un système itératif résultant.Pour construire un CIFS exact de l’image, si il existe, il faut prouver tous les similitudes nécessairesmanuellement. Nous explicitons également la condition de l’opération, quand le résultat peut êtrereprésenté par un IFS avec un opérateur de HUTCHINSON généralisé. Dans ce cas, il n’est que cettecondition à prouver manuellement / Defining shapes by iteration allows us to generate new structures with specific properties (roughness,lacunarity), which cannot be achieved with classic modelling.For developing an iterative modeller to design fractals described by a BCIFS, we developed a set oftools and algorithms that permits one to evaluate, to characterize and to analyse different geometricproperties (localisation, convex hull, volume, fractal dimension) of fractals. We identified properties ofstandard CAD operations (intersection, union, offset, . . . ) allowing us to approximate them for fractalsand also to optimize these approximation algorithms.In some cases, it is possible to construct a CIFS with generalised HUTCHINSON operator, whoseattractor is close enough to the operation result with respect to the HAUSDORFF metric.We introduceda generic algorithm to compute such CIFS for a given accuracy.We defined the self-similarity propertyof the operation defining a set of transformations, which are used in the output iterative system.In order to construct an exact CIFS of the image, if it exists, we must prove all the necessarysimilarities manually. We explicit also the condition of the operation to be represented by an IFS witha generalised HUTCHINSON operator. In this case, only this condition should be proved manually
205

Toward more realism and robustness in global illumination / Vers plus de réalisme et de robustesse en simulation de l’éclairage global

Gruson, Adrien 06 July 2015 (has links)
L'un des buts principaux de la synthèse d'image est de générer une image en adéquation avec les attentes de l’utilisateur. Pour ce faire, l'utilisateur doit passer par plusieurs étapes. La première, dite « Moteur de rendu », a pour but de simuler de façon précise les différentes interactions lumineuses avec les objets d'une scène 3D. A l'issue de cette étape, l'utilisateur aura à sa disposition une image décrite par des grandeurs photométriques. Ensuite, l'utilisateur procède à une seconde étape, dite « Post-production », où l'utilisateur effectue différents traitements sur l’image générée. Afin que l’image finale soit en adéquation avec les attentes de l’utilisateur, ce dernier peut modifier la scène 3D ou les différents paramètres utilisés par chaque étape. Les travaux de recherche menés dans le cadre de la thèse se sont focalisés sur deux axes principaux : l’accélération de la génération d'images de synthèse et le développement d'outils, proposés à l'utilisateur, lui permettant de satisfaire ses attentes. Concernant le premier axe, nous avons travaillé sur les techniques de synthèse d'image permettant de générer des images de synthèse de haute qualité. Ces techniques s’appuient, le plus souvent, sur un processus stochastique qui construit de façon aléatoire des chemins de lumière. Cependant, dans certains cas de figure, il est difficile de construire de façon efficace ces chemins. C'est le cas des milieux participants (fumée, feu, etc.) pour lesquels un grand nombre d'interactions lumière/matière doit être pris en compte, ce qui est très coûteux en temps de calcul. Pour réduire ces temps de calcul, nous proposons une adaptation d'une approche de rendu discrète exploitant la puissance de calcul des cartes graphiques. Cependant, comme ce genre de techniques présentent de nombreuses limitations, nous avons développé une seconde technique basée sur le trace de photon. Par ailleurs, dans des scènes complexes, il est difficile de trouver des chemins contributifs. Pour cette raison, nous avons utilisé une approche, basée sur Metropolis-Hasting, qui permet d'explorer localement l'espace des chemins contributifs. En revanche, avec ce type d'approche, il est difficile de contrôler la répartition de l'erreur sur le plan image. C'est pourquoi, nous proposons une nouvelle approche permettant de mieux répartir l'erreur relative sur le plan image. Dans le second axe de travail, nous nous sommes intéressés à l’étape de « Post-production ». En effet, nous avons développé une nouvelle technique d'estimation de l'illuminant de référence. Connaître cet illuminant est important lors d’opérations manipulant l'espace couleur utilisé. Enfin, nous proposons une technique capable de déterminer automatiquement la configuration des sources de lumière dans le but de générer une image répondant aux attentes de l'utilisateur. / One of the main goal in computer graphics is to generate an image that matches the user intent. To do that, the user has to go through several steps. The first step, named « Rendering engine », aims to precisely simulate light interactions with the objects of a 3D scene. At the end of this step, an image is generated. This image is represented by photometric values. Then, the user moves on to the second step, named « Post-production », where she/he applies several transformations to the computer generated images. To make the final image be in line with her/his expectations, the user can modify the 3D scene or change parameter values used throughout the different steps. Two main research avenues are investigated: acceleration of the generation of computer generated images and the development of user assistance tools allowing to satisfy the user's intent. First, we have developed computer graphics algorithms that generate high quality images. These techniques often rely on a stochastic process. They randomly construct light paths. However, in some particular setup, it turns out that these algorithms are inefficient. This is the case when rendering participating media for which a huge amount of light interactions is needed. These interactions entail a costly computing time. In order to reduce the rendering time, we have proposed a new discrete approach that runs on the GPU. However, there exist several limitations with this type of technique. To overcome these limitations, we have developed a second approach based on progressive photon mapping. Furthermore, in complex scenes, it is difficult to find valid light paths. This is why, our algorithm is based on Metropolis-Hasting. This type of technique allows to explore locally the path space but still have several drawbacks. The main drawback is that the algorithm does not distribute evenly the error over the image space. We have proposed a novel approach to address this issue. In the second part of this PhD, we are interested in the "post-production" step. A new technique has been developed to estimate the main illuminant in a scene. Knowing this main illuminant is crucial for color transformations. Moreover, we have developed a technique that optimizes automatically the lighting setup in a 3D scene to meet the user's expectations.
206

Modèles physiques et perception, contributions à l'analyse du milieu sonore urbain / Physical models and perception, contributions to sound analysis in urban environment

Keita, Eloi Bandia 02 July 2015 (has links)
L’intégration du monde physique et des systèmes d’information est l’un des faits majeurs de la récente décennie. Cette intégration est rendue possible par les systèmes de communication, en particulier les systèmes sans fil, et par les recherches à l’interface physique dans le domaine des capteurs.L’usage de cette interface peut se concevoir de manière locale, par exemple le contrôle d’un objet, ou une aide dirigée vers une personne. Cette interface peut aussi exister au niveau distribué, en permettant la synthèse d’informations éparses et des prises de décisions concernant par exemple des économies de ressources : éteindre l’éclairage d’une rue, guider vers une place de parking libre.Les réseaux de capteurs sans fil contribuent à cette seconde catégorie et cette thèse s’est consacrée à la simulation de la propagation d’informations sonores en milieu urbain, avec une caractérisation distribuée.Le support décisif pour cette simulation est la représentation cellulaire de la ville et de ses zones : rues, jardins, rocades, bâtiments, rivières. Cette représentation cellulaire est produite par l’analyse d’imagesgéo-localisées et peut être complétée par la consultation de bases de données, pour l’élévation, par exemple. La représentation cellulaire est ensuite transformée en systèmes de processus interconnectés, à même de reproduire quantité de comportements collectifs, physiques ou numériques. / Physical world and information systems unification is a major achievement during this last decade. Communication systems, especially wireless technology, and research in physical sensors field have taken a major part in this integration.The interface between the physical word and a computer can be used in two ways. First, from a local perspective, where such a system can control for instance a single object or provide a personal assistance.Moreover, in a distributed system, this interface collects and analyses sparse data to make decisions, for instance about resource savings: to turn off streetlights, to guide to a parking spot.Wireless sensor networks are part of this second category. Thus, this thesis is focused on sound propagation simulation in urban environment, in a distributed manner.The key point of this work is a cellular representation of the city in order to model streets, gardens, ring roads, buildings, and rivers. Georeferenced image analysis, complemented by database consultation, for example to retrieve elevation data, generates this cellular model. Then, this model is converted into a system made of interconnected processes, that can reproduce many collective behaviors, whether physical or digital.We have developed a cellular automata that models sound propagation, including reflection and refraction, working on a graphics accelerator. Finally, we have produced a coupling method between observation systems by sensor networks and physical systems.
207

Approche du mouvement du rythme musical par le mouvement graphique de l’auditeur. Représentations graphiques enactives de patterns rythmiques percussifs par des enfants de cinq ans / Approach of Rhythmic Musical Motion by Listener’s Graphic Movement. Enactive graphical representations of rhythmic percussive patterns traced by five-year-old children

Ométak, Valérie 06 January 2017 (has links)
Cette thèse porte sur le rythme musical considéré sous l’angle particulier de son mouvement et entreprend une approche empirique de cette notion abstraite, en l’absence de consensus sur la définition du rythme et d’une théorie scientifique sur le mouvement en musique. Différentes conceptions théoriques du mouvement sont exposées suivant que le rythme musical est considéré comme un objet, un phénomène ou une forme dynamique. Ces points de vue sont enrichis de données empiriques sur la description du rythme par les mouvements de l’auditeur. A l’appui de ce cadre de référence, la forme dynamique est saisie comme outil conceptuel et méthodologique qui permet de cerner les qualités dynamiques du rythme suivant l’évolution temporelle de ses éléments dynamo-agogiques, supposés porteurs d’informations de vitesse du mouvement, et d’analyser cette forme dynamique musicale par les formes dynamiques graphiques tracées par l’auditeur lors de l’écoute du rythme. Cet outil est testé dans une expérience exploratoire durant laquelle on enregistre les traçages effectués avec un stylo numérique par 33 enfants de 5 ans, sujets enactifs, lors de la représentation graphique de 24 brefs patterns percussifs. Les 792 traçages avec l’environnement sonore sont étudiés avec deux méthodes de comparaison de l’évolution temporelle du graphisme et du rythme. L’analyse de l’appariement de ces formes dynamiques rythmiques et graphiques met en évidence des liens solides entre des propriétés d’intensité et de durées des rythmes et des propriétés formelles et dynamiques des graphismes des auditeurs. / Given the lack of a consensual definition of rhythm and of a scientific theory of musical motion, this dissertation approaches empirically the abstract notion of the motion conveyed by musical rhythm. We present several theoretical conceptions of motion, musical rhythm being alternatively considered as an object, a phenomenon or a dynamic form. These points of view are completed with empirical data describing rhythms through listener’s movements. Within this framework, we use the dynamic form as a conceptual and methodological tool giving insights into the rhythm dynamics according the way their dynamo-agogic elements, assumed to convey information regarding motions' speed, change over time. It also allows the analysis of this musical dynamic form through the graphical dynamic form drawn by the listeners as they listen to a rhythm. This tool was tested in an exploratory experiment on 33 five-year-old enactive subjects, during which the movements of an electronic pen were recorded as the children were asked to draw an enactive graphical representation of 24 brief percussive patterns. The 792 tracing samples thus generated as rhythms unfold are studied with two methods comparing the respective temporal changes of tracing movements vs rhythms. Pairing these graphical and rhythmic dynamic forms for analysis exhibited strong links between the properties of intensity and duration of rhythms on one hand, and dynamic and formal properties of the graphical patterns generated by the listeners on the other hand.
208

Connectivity and Processing in the Macaque Cerebral Cortex / Connectivité et traitement de l'information dans le cortex cérébral du macaque

Gariel, Marie-Alice 11 January 2017 (has links)
Pour comprendre comment le cortex cérébral extrait du sens et produit des actions à partir des informations sensorielles, il est nécessaire de comprendre à la fois son architecture et ses états dynamiques. Dans la présente thèse nous avons abordé cette relation structure-fonction au niveau des aires cérébrales, leurs connections et leurs interactions au sein du réseau cortical. Les aires sont connectées entre elles par deux grands types de projections axonales. D'une part, les connections « feedforward » (littéralement « antéroactives ») transmettent l'information des aires sensorielles aux aires de plus haut niveau dans la hiérarchie corticale et dont l'activité sous-tend des représentations plus abstraites. À l'inverse, les connections feedback (rétroactives) relient des aires dans la direction descendante de la hiérarchie corticale, vers les aires sensorielles primaires. Pour explorer les rôles respectifs des connections feedforward et feedback nous avons utilisé une triple approche. Premièrement, nous avons mis en évidence une asymétrie fonctionnelle très nette entre propagation feedforward et feedback grâce à des enregistrements et de la microstimulation électrique dans les aires V1 et V4 de macaques en comportement. D'autre part, nous avons étudié les propriétés globales du réseau cortical grâce à une riche base de données de connectivité basée sur des injections de traceurs fluorescents, et décrit une propriété générale et fondamentale de l'organisation corticale. Enfin, nous avons combiné des propriétés anatomiques des aires corticales et les données de connectivité dans un modèle dynamique à grande échelle du cortex / To understand how the cerebral cortex does what it does, it is necessary to elucidate both how its dynamic states are correlated with the functions it performs, and how it is organised. Many functional and anatomical gradients have been described that reflect the hierarchical abstraction at the heart of cortical computation. It was showed that two flavours of cortical connections exist, and that in the visual cortex they happen to transport information in opposite directions along this gradient. It was also hypothesised that other modalities exhibit the same type of gradient in their respective domains. However, studying requires knowledge of the architecture at different levels (such as the cortical column) and a causal understanding of the functional properties of these types of connections. First, we have studied the dynamics of both feedforward and feedback propagation in the visual system of awake, behaving macaque monkeys. Using the causal method of electrical microstimulation and recording, we have found a dynamic signature of each type of projections and an asymmetry in the way each type of input interacts with ongoing activity in a given visual area. Secondly, thanks to a rich and systematic data set in the macaque, we have found a fundamental organisational principle of the embedded and weighted cortical network that holds also in the more detailed level of neuronal connections inside an area. Finally, we have combined known anatomical gradients with actual inter-areal connectivity into a dynamic model, and here we show how it relates to both the ordering of areas along a hierarchical gradient and the wiring diagram of the cortical network
209

Bayesian and Quasi-Monte Carlo spherical integration for global illumination / Intégration sphérique Bayésien et Quasi-Monte Carlo pour l'illumination globale

Marques, Ricardo 22 October 2013 (has links)
La qualité du résultat des opérations d’échantillonnage pour la synthèse d'images est fortement dépendante du placement et de la pondération des échantillons. C’est pourquoi plusieurs travaux ont porté sur l’amélioration de l’échantillonnage purement aléatoire utilisée dans les techniques classiques de Monte Carlo. Leurs approches consistent à utiliser des séquences déterministes qui améliorent l’uniformité de la distribution des échantillons sur le domaine de l’intégration. L’estimateur résultant est alors appelé un estimateur de quasi-Monte Carlo (QMC).Dans cette thèse, nous nous focalisons sur le cas de l’échantillonnage pour l’intégration hémisphérique. Nous allons montrer que les approches existantes peuvent être améliorées en exploitant pleinement l’information disponible (par exemple, les propriétés statistiques de la fonction à intégrer) qui est ensuite utilisée pour le placement des échantillons et pour leur pondération. / The spherical sampling of the incident radiance function entails a high computational cost. Therefore the llumination integral must be evaluated using a limited set of samples. Such a restriction raises the question of how to obtain the most accurate approximation possible with such a limited set of samples. In this thesis, we show that existing Monte Carlo-based approaches can be improved by fully exploiting the information available which is later used for careful samples placement and weighting.The first contribution of this thesis is a strategy for producing high quality Quasi-Monte Carlo (QMC) sampling patterns for spherical integration by resorting to spherical Fibonacci point sets. We show that these patterns, when applied to the rendering integral, are very simple to generate and consistently outperform existing approaches. Furthermore, we introduce theoretical aspects on QMC spherical integration that, to our knowledge, have never been used in the graphics community, such as spherical cap discrepancy and point set spherical energy. These metrics allow assessing the quality of a spherical points set for a QMC estimate of a spherical integral.In the next part of the thesis, we propose a new heoretical framework for computing the Bayesian Monte Carlo quadrature rule. Our contribution includes a novel method of quadrature computation based on spherical Gaussian functions that can be generalized to a broad class of BRDFs (any BRDF which can be approximated sum of one or more spherical Gaussian functions) and potentially to other rendering applications. We account for the BRDF sharpness by using a new computation method for the prior mean function. Lastly, we propose a fast hyperparameters evaluation method that avoids the learning step.Our last contribution is the application of BMC with an adaptive approach for evaluating the illumination integral. The idea is to compute a first BMC estimate (using a first sample set) and, if the quality criterion is not met, directly inject the result as prior knowledge on a new estimate (using another sample set). The new estimate refines the previous estimate using a new set of samples, and the process is repeated until a satisfying result is achieved.
210

Organisational awareness : mapping human capital for enhancing collaboration in organisations / La sensibilisation organisationnelle : la cartographie du capital humain pour le renforcement de la collaboration dans les organisations

Garbash, Dor Avraham 13 October 2016 (has links)
Comment peut-on devenir plus conscients des sources de connaissance au sein des organisations des humains? Les changements économiques et technologiques rapides forcent les organisations à devenir plus souples, agiles et interdisciplinaires. Pour cela, les organisations cherchent des alternatives pour les structures de communication hiérarchiques traditionnelles qui entravent les pratiques de collaboration ascendantes. Pour que les méthodes ascendantes soient efficaces, il est nécessaire d'offrir aux membres l'accès à l'information et à l'expertise dont ils ont besoin pour prendre des décisions qualifiées. Ceci est un défi complexe qui implique la culture organisationnelle, l'informatique et les pratiques de travail. Un défaut au niveau de l'application de ce système peut aborder des points critiques qui peuvent ralentir les processus de travail, d'entraver l'innovation et qui conduisent souvent au travail suboptimal et redondant. Par exemple, une enquête 2014 de 152 dirigeants de Campus IT aux Etats-Unis, estime que 19% des systèmes informatiques du campus sont redondants, ce qui coûte les universités des Etats-Unis 3.8B$ par an. Dans l'ensemble, les travailleurs intellectuels trouvent l'information dont ils ont besoin seulement 56% du temps. Avec un quart du temps total des travailleurs intellectuels consacré à la recherche et l'analyse des informations. Ce gaspillage de temps coûte 7K$ pour chaque employé par an. Un autre exemple du gaspillage est celui des nouveaux arrivants et des employés promus qui peuvent prendre jusqu'à 2 ans pour s'intégrer pleinement au sein de leur département. En outre et selon des enquêtes étendues, seulement 28% des apprenants estiment que leurs organisations actuelles «utilisent pleinement» les compétences qu'ils ont actuellement capable d'offrir et 66% prévoient quitter leur organisation en 2020. Réussir la résolution de ce défi est capable de motiver les membres de l'organisation, ainsi que d'y améliorer l'innovation et l'apprentissage. L'objectif de cette thèse est de mieux comprendre ce problème en explorant les défis rencontrés par le service d'informatique dans une université et un centre de recherche interdisciplinaire. Deuxièmement, co-développer et mettre en œuvre une solution avec ces institutions, je décris leur utilisation des logiciels que nous avons développés, les résultats et la valeur obtenus avec ces pilotes. Troisièmement, tester l'efficacité de la solution, et explorer de nouvelles applications et le potentiel d'un tel système similaire pour être utilisé dans une plus grande échelle. Pour mieux comprendre le problème je me suis engagé dans une discussion avec les membres et les dirigeants des deux organisations. Une conclusion importante des discussions est que les membres de ces organisations souffrent souvent d'un manque de sensibilisation à propos de leurs connaissances-compétences au niveau d'organisation du capital, et la connaissance des processus et des relations sociales avec leurs collègues dans l'organisation. Grâce à cette exposition, les idées novatrices, les opportunités et les intérêts communs des pairs sont sévèrement limités. Cela provoque des retards inutiles dans les projets inter-équipes, des goulots d'étranglement, et un manque de sensibilisation sur les possibilités de stages. Aussi, j'ai craqué le problème et je l’avais défini comme l'une des informations de fragmentation: Différentes informations sont stockées dans des bases de données disparates ou dans la tête des gens, exigeant un effort et de savoir-faire pour l'obtenir. (...) / How can we become more aware of the sources of insight within human organisations? Rapid economical and technological changes force organisations to become more adaptive, agile and interdisciplinary. In light of this, organisations are seeking alternatives for traditional hierarchical communication structures that hinder bottom-up collaboration practices. Effective bottom-up methods require empowering members with access to the information and expertise they need to take qualified decisions. This is a complex challenge that involves organisational culture, IT and work practices. Failing to address it creates bottlenecks that can slow down business processes, hinder innovation and often lead to suboptimal and redundant work. For example, a 2014 survey of 152 Campus IT leaders in the US, estimated that 19% of the campus IT systems are redundant, costing US universities 3.8B$ per year. In aggregate, knowledge workers find the information they need only 56% of the time. With a quarter of knowledge workers total work time spent in finding and analyzing information. This time waste alone costs 7K$ per employee annually. Another example of the waste created is that newcomers and remote employees may take up to 2 years to fully integrate within their department. Furthermore according to extended surveys, only 28% of millennials feel that their current organizations are making ‘full use’ of the skills they currently have to offer and 66% expect to leave their organisation by 2020. Successfully resolving this challenge holds the potential to motivate organisation members, as well as enhance innovation and learning within it. The focus of this thesis is to better understand this problem by exploring the challenges faced by a university IT department and an interdisciplinary research center. Second, co-develop and implement a solution with these institutions, I describe their usage of the software tool we developed, outcomes and value obtained in these pilots. Third, test the effectiveness of the solution, and explore further applications and potential for a similar system to be used in a wider scale. To better understand the problem I engaged in discussion with members and leaders of both organisations. An important conclusion from the discussions is that members of these organizations often suffer from lack of awareness about their organisation’s knowledge capital—the competencies, knowledge of processes and social connections of their colleagues. Due to this exposure to innovative ideas, opportunities and common interests of peers is severely limited. This causes unnecessary delays in inter-team projects, bottlenecks, and lack of awareness about internship opportunities. I further broke down the problem, and defined it as one of information fragmentation: Different information is stored in disparate databases or inside people’s heads, requiring effort and know-how in order to obtain it. Following the conclusions of this analysis and state-of-the-art review, we have set together the goal to create a collaborative visual database to map the people, projects, skills and institutions for the IT department of Descartes University, and in addition, people, interests and internship opportunities within the CRI, an interdisciplinary research and education center. We have also conducted interviews, surveys and quizzes that ascertain that people had difficulties identifying experts outside their core teams. During the course of this thesis, I progressively addressed this challenge by developing two collaborative web applications called Rhizi and Knownodes. Knownodes is a collaborative knowledge graph which utilized information-rich edges to describe relationships between resources. Rhizi is a real-time and collaborative knowledge capital mapping interface. A prominent unique feature of Rhizi is that it provides a UI that turns text-based assertions made by users into a visual knowledge graph. (...)

Page generated in 0.1039 seconds