Spelling suggestions: "subject:"motsclés"" "subject:"musclés""
81 |
Mesure de confiance trame-synchrones et locales en reconnaissance automatique de la paroleRazik, Joseph 09 October 2007 (has links) (PDF)
En reconnaissance automatique de la parole, les mesures de confiance tentent d'estimer la confiance qu'on peut accorder au résultat (phonème, mot, phrase) fourni par le moteur de reconnaissance ; l'apport de la mesure de confiance permettant par exemple de mettre en évidence les mots mal reconnus ou hors vocabulaire.<br />Dans cette thèse nous proposons des mesures de confiance capables de faire cette estimation dans le cas d'applications nécessitant une reconnaissance "grand vocabulaire" en flux continu comme l'indexation en mots clés ou la transcription en ligne d'émissions radiophoniques et télévisuelles, ou bien encore la transcription du cours d'un enseignant dans une salle de classe pour des élèves malentendants.<br />Dans ce cadre, nous avons défini deux types de mesure de confiance. Les premières, fondées sur des rapports de vraisemblance, sont des mesures trame-synchrones qui peuvent être calculées au fur et à mesure de la progression du moteur de reconnaissance au sein de la phrase à reconnaître. Les secondes, fondées sur une estimation de la probabilité a posteriori limitée à un voisinage local du mot considéré, nécessitent seulement un court délai avant de pouvoir être calculées.<br />Ces mesures ont été évaluées et comparées à une mesure de l'état de l'art également fondée sur la probabilité a posteriori mais nécessitant la reconnaissance de toute la phrase. Cette évaluation a été faite d'une part dans une tâche de transcription automatique d'un corpus réel d'émissions radiophoniques issu de la campagne ESTER et en utilisant le critère d'évaluation EER (Equal Error Rate) ; d'autre part dans une tâche de détection de mots clés sur le même corpus. Des performances très proches de celles de la mesure de l'état de l'art ont été obtenues par nos mesures locales avec un délai de moins d'une seconde.<br />Nous avons également intégré l'une de nos mesures trame-synchrones dans le processus de décodage du moteur de reconnaissance afin d'améliorer la solution proposée par le système et ainsi diminuer le taux d'erreur en mots d'environ 6% en relatif.<br />Enfin, une de nos mesures de confiance a permis par la mise en valeur de mots de faible confiance d'améliorer la compréhension de malentendants.
|
82 |
Caractérisation des processus d'innovation dans les entreprises de servicesSoille, Philippe 21 December 2011 (has links) (PDF)
RESUME : Les recherches en matière d'innovation démontrent que tous les types d'entreprises sont concernés par le sujet. De même il est avéré que l'innovation, pour s'inscrire dans une réalité qualitative et acceptable économiquement, doit en permanence veiller à être en contact avec son marché. Simultanément à ces exigences, accentuées par l'accélération de la circulation de l'information, les entreprises sont amenées à organiser la recherche et l'innovation au sein de leurs organisations collectives respectives, de façon distribuée auprès de chacun de leurs acteurs. La part des services est croissante dans ce contexte complexe de pilotage de connaissances et de compétences requises, s'agissant des principales caractéristiques des intervenants. Les entreprises sont dès lors amenées à solliciter de plus en plus ces derniers dont principalement le client ou l'usager. Il occupe désormais une place centrale dans ces processus de partage de savoirs et de mise en œuvre de projets innovants. Piloter l'innovation dans les métiers de services, ne peut donc se limiter à une transposition de méthodes industrielles documentées et aujourd'hui bien connues. Innover ne peut être un métier seulement technique et la prise en compte de spécificités des métiers de services est indispensable. L'objectif de notre thèse est de proposer une caractérisation générale de méthodes et d'organisation R&D rendues possibles et efficaces dans une entreprise de services. Notre travail nous a permis d'identifier quatre volets dont les paramètres peuvent être ajustés en fonction des nécessités : 1-Un volet d'ingénierie : la gestion du risque dont l'objectif est de donner un socle tangible à notre modèle de fonctionnement ; 2-Un volet organisationnel, indissociable d'une approche par les sciences humaines et sociales, qui nous permet de modéliser ou caractériser la notion de pôle de compétences indispensable au bon fonctionnement de l'organisation. Il est possible de l'illustrer à la façon d'un cluster de connaissances, compétences et pratiques opérationnelles. 3-Un volet technique dont l'objectif est de faire émerger des outils de conception en lien avec les spécificités de chaque pratique de service. 4-Un volet économique peut optionnellement et avantageusement compléter l'approche que nous proposons afin de consolider notre schéma d'ensemble par la recherche d'une pertinence instantanée et mesurable de l'ensemble de nos actions et la quantification de la performance des outils utilisés à ce titre. Notre travail a fait l'objet de 2 communications dans des colloques nationaux et de 2 publications dans des revues nationales à comité de lecture. Une publication a été soumise dans une revue internationale à comité de lecture. Les recherches et les expérimentations que nous avons menées se sont appuyées sur le Pôle R&D du Groupe FLO, créé en 2008 et dirigé par l'auteur de la thèse. Cette réalisation unique dans le secteur de la restauration commerciale à table, constitue l'aboutissement de notre travail de recherche partenariale.
|
83 |
Scheduling of certifiable mixed-criticality systems / Ordonnancement des systèmes certifiés avec différents niveaux de criticitéSocci, Dario 09 March 2016 (has links)
Les systèmes temps-réels modernes ont tendance à obtenir la criticité mixte, dans le sens où ils intègrent sur une même plateforme de calcul plusieurs applications avec différents niveaux de criticités. D'un côté, cette intégration permet de réduire le coût, le poids et la consommation d'énergie. Ces exigences sont importantes pour des systèmes modernes comme par exemple les drones (UAV). De l'autre, elle conduit à des complications majeures lors de leur conception. Ces systèmes doivent être certifiés en prenant en compte ces différents niveaux de criticités. L'ordonnancement temps réel des systèmes avec différents niveaux de criticités est connu comme étant l’un des plus grand défi dans le domaine. Les techniques traditionnelles nécessitent une isolation complète entre les niveaux de criticité ou bien une certification globale au plus haut niveau. Une telle solution conduit à un gaspillage des ressources, et à la perte de l’avantage de cette intégration. Ce problème a suscité une nouvelle vague de recherche dans la communauté du temps réel, et de nombreuses solutions ont été proposées. Parmi elles, l'une des méthodes la plus utilisée pour ordonnancer de tels systèmes est celle d'Audsley. Malheureusement, elle a un certain nombre de limitations, dont nous parlerons dans cette thèse. Ces limitations sont encore beaucoup plus accentuées dans le cas de l'ordonnancement multiprocesseur. Dans ce cas précis, l'ordonnancement basé sur la priorité perd des propriétés importantes. C’est la raison pour laquelle, les algorithmes d'ordonnancement avec différents niveaux de criticités pour des architectures multiprocesseurs ne sont que très peu étudiés et ceux qu’on trouve dans la littérature sont généralement construits sur des hypothèses restrictives. Cela est particulièrement problématique car les systèmes industriels temps réel cherchent à migrer vers plates-formes multi-cœurs. Dans ce travail nous proposons une approche différente pour résoudre ces problèmes. / Modern real-time systems tend to be mixed-critical, in the sense that they integrate on the same computational platform applications at different levels of criticality. Integration gives the advantages of reduced cost, weight and power consumption, which can be crucial for modern applications like Unmanned Aerial Vehicles (UAVs). On the other hand, this leads to major complications in system design. Moreover, such systems are subject to certification, and different criticality levels needs to be certified at different level of assurance. Among other aspects, the real-time scheduling of certifiable mixed critical systems has been recognized to be a challenging problem. Traditional techniques require complete isolation between criticality levels or global certification to the highest level of assurance, which leads to resource waste, thus loosing the advantage of integration. This led to a novel wave of research in the real-time community, and many solutions were proposed. Among those, one of the most popular methods used to schedule such systems is Audsley approach. However this method has some limitations, which we discuss in this thesis. These limitations are more pronounced in the case of multiprocessor scheduling. In this case priority-based scheduling looses some important properties. For this reason scheduling algorithms for multiprocessor mixed-critical systems are not as numerous in literature as the single processor ones, and usually are built on restrictive assumptions. This is particularly problematic since industrial real-time systems strive to migrate from single-core to multi-core and many-core platforms. Therefore we motivate and study a different approach that can overcome these problems.A restriction of practical usability of many mixed-critical and multiprocessor scheduling algorithms is assumption that jobs are independent. In reality they often have precedence constraints. In the thesis we show the mixed-critical variant of the problem formulation and extend the system load metrics to the case of precedence-constraint task graphs. We also show that our proposed methodology and scheduling algorithm MCPI can be extended to the case of dependent jobs without major modification and showing similar performance with respect to the independent jobs case. Another topic we treated in this thesis is time-triggered scheduling. This class of schedulers is important because they considerably reduce the uncertainty of job execution intervals thus simplifying the safety-critical system certification. They also simplify any auxiliary timing-based analyses that may be required to validate important extra-functional properties in embedded systems, such as interference on shared buses and caches, peak power dissipation, electromagnetic interference etc..The trivial method of obtaining a time-triggered schedule is simulation of the worst-case scenario in event-triggered algorithm. However, when applied directly, this method is not efficient for mixed-critical systems, as instead of one worst-case scenario they have multiple corner-case scenarios. For this reason, it was proposed in the literature to treat all scenarios into just a few tables, one per criticality mode. We call this scheduling approach Single Time Table per Mode (STTM) and propose a contribution in this context. In fact we introduce a method that transforms practically any scheduling algorithm into an STTM one. It works optimally on single core and shows good experimental results for multi-cores.Finally we studied the problem of the practical realization of mixed critical systems. Our effort in this direction is a design flow that we propose for multicore mixed critical systems. In this design flow, as the model of computation we propose a network of deterministic multi-periodic synchronous processes. Our approach is demonstrated using a publicly available toolset, an industrial application use case and a multi-core platform.
|
84 |
Study on preparation, structures and non linear optical properties of novel chalcogenide glasses and fibersZheng, Xiaolin 08 July 2011 (has links)
Pas de résumé en français / Being compared with oxide glasses, chalcogenide glasses have fine infrared transmissivity and higher optical nonlinearity, and also could be drawn into optical fibers. So chalcogenide glasses and fibers have potential wide applications in the fields of all-optical information processing, infrared lasers, nonlinear optical devices, and so on, the studies of their optical nonlinearity are one of the attractive subjects in the area of optoelectronics at present. The main purpose of this paper is to improve the stability and enhance the intensity of nonlinearity in chalcogenide glasses and fibers by means of exploring new glass compositions, optimizing the external field poling method, designing and fabricating fibers with special structures, all of these will promote their real applications. The main results are concluded as follows . The glass-forming region of GeS2-GA2S3-AgX (X=Cl, Br, I) and GeS2-Ga (In)2S3-CuI systems were determined , the maximal content of the additive halides are 70% and 12% respectively. In both two systems glasses, with the increasing addition of halides, the thermal stability reduce, density and linear refractive index increase, the ultraviolet cut-off edges shift to longer wavelength, while the infrared cut-off edges keep almost the same. 30GeS2 35Ga2S3 35AgCl and 47.5GeS2 17.5Ga2S3 35AgCl surface- and bulk-crystallized glasses that contain AgGaGeS4 nonlinear optical crystallites were prepared. Obvious second harmonic generation (SHG) could be observed in these crystallized glasses, and their intensity relate to the distribution and size of the precipitated AgGaGeS4 crystals, the maximal second-order nonlinearity coefficients is as high as 12.4pm/V. These crystallized glasses have good chemical and SHG stability. For GeS2-Ga (In)2S3-CuI systems glasses, due to their small glass-forming region, they are not suit for the preparation of crystallized glasses that contain CuGaS2 or CuInS2 nonlinear optical crystals. According to the structural studies of two system glasses, the main structural units of theses glasses are [YS4-xXx] (Y=Ge, Ga, In. X=Cl, Br, I) mixed anion tetrahedrons, they form a three-dimensional glassy network through bridging sulphur bonds. When the contents of halides MX(M=Ag, Cu. X=Cl, Br, I) are low, some [XxS3-xGe(Ga)S3-xXx] (X=Cl, Br, I) mixed ethane-like structural units exist in the glass network, and they will gradually transform to [YS4-xXx] (Y=Ge, Ga, In. X=Cl, Br, I) mixed anion tetrahedrons with the increasing content of halides, till totally disappear. Both two system glasses have ultrafast (~150fs) third-order optical nonlinearity and reverse saturation absorption, they belong to self-focusing medium. The third-order optical nonlinearity mainly originate from the distortion of electron cloud of Y-X (Y=Ge, Ga, In, X=Cl, Br, I, S) bonds in the structural units. For GeS2-GA2S3-AgX (X=Cl, Br, I) system glasses, the largest nonlinear susceptibility n2 is 10.50x10-18 m/W, the smallest figure of merit (FOM) is 0.606. In addition, the relation of n2 with n0 do not obey Miller’s rule, but in accordance with the structural variation. Among the glass compositions with different additive halogens, Br-containing glasses have relatively best third-order nonlinearities. For GeS2-Ga (In)2S3-CuI system glasses, the largest nonlinear susceptibility n2 is 9.37x10-18 m/W, the smallest figure of merit (FOM) is 2.237. High purity AS2S3 glass performs and low loss single index fibers with diameter of 100~400µm that drawn form these performs were prepared, the transmission losses between 2~6 µm is only 0.5dB/m. AS2S3 tapered fibers have a uniform diameter of taper wasit, fine surface smoothness, and sharp taper transition part.
|
85 |
Theory and molecular dynamics simulations of the local dynamics and free energy profiles of proteins : application to the interpretation of protein NMR data / Théorie et simulations de dynamique moléculaire de la dynamique locale et des profils d'énergie libre des protéines : application à l'interprétation des données RMNCote, Yoann 07 December 2012 (has links)
Comprendre la dynamique locale des protéines dans leur état natif (structure repliée etfonctionnelle) est essentiel pour comprendre leur dynamique globale et leur fonction biologique. Aucours de cette thèse, nous avons étudié la dynamique locale de plusieurs petites protéines enmesurant les fluctuations de sondes locales le long de la séquence d’acide aminé de ces protéines.Nous avons essayé de comprendre la dynamique de ces sondes locales, comment celles-ci serelaxaient entre leurs différentes conformations, comment leurs fluctuations étaient corrélées lesunes aux autres et comment peuvent-elles être reliées à la fonction biologique des protéines.Dans les trois premiers chapitres, nous introduisons les concepts du mouvement Browniende rotation libre, de la spectroscopie par Résonance Magnétique Nucléaire (RMN) et de ladynamique moléculaire (DM). Dans les chapitres 4 et 5, nous avons étudié la dynamique desliaisons amides de la chaine principale (backbone) des protéines sur leurs paysages d’énergie libre.Dans le chapitre 4, nous avons démontré que les fluctuations des liaisons amide dubackbone de la protéine VA3 sont décrites par une diffusion rotationnelle anormale plutôt que parune diffusion rotationnelle libre généralement utilisée pour interpréter les données RMN enrelaxation de spins et en couplage résiduel dipolaire. [...] Dans le chapitre 5, nous avons démontré la diffusion rotationnelle anormale de ces liaisons jusqu’à une échelle de temps de 100 ns en utilisant dix simulations de DM de 1 μs de la protéineUbiquitine. Nous avons aussi étudié la convergence des paramètres RMN extraits des trajectoiresde DM en fonction de leur durée. [...] Dans le chapitre 6, nous avons réalisé une l’étude de la corrélation entre les mouvements du backbone et des chaines latérales des protéines. [...] Dans la première partie du dernier chapitre de cette thèse, nous avons étudié l’évolution de la corrélation dynamique entre les chaines latérales et la chaine principale d’une protéine durant des évènements de dépliement/repliement. Pour cette étude préliminaire, nous avons utilisé unesimulation de DM d’un « ultra-fast folder » nommé Trp-cage réalisée à 380K. Nous avons confirméles résultats précédemment trouvés pour les protéines dans leur état natif. Nous avons observél’augmentation de la corrélation entre les séries temporelles yn(t) and δn(t) pendant un évènementde dépliement caractérisé par la sortie du tryptophane de sa cage. Un paramètre stérique s aégalement été défini afin de quantifier les intéractions des chaines latérales avec leurenvironnement. Dans une seconde partie de ce dernier chapitre, nous présentons une étudepréliminaire du dépliement d’un « downhill folder » nommé gpW sous contrainte d’une force. Pourcaractériser le dépliement de la protéine gpW, nous avons calculé les chemical shifts des atomes Cª et Hⁿ du backbone le long de sa séquence en fonction d’une coordonnée réactionnelle choisie comme étant la distance entre les Cª de résidus C- et N- terminaux. Nous avons démontré qu’il était difficile de discerner un comportement particulier à partir des tous les chemical shifts en fonction de la distance. Cependant, en moyennant la valeur des chemical shifts en sur tous lesrésidus de la protéine nous trouvons que l’évolution de cette valeur moyenne en fonction de ladistance permettait de décrire les évènements du dépliement de la protéine en fonction de lacoordonnée de réaction durant la simulation de DM / Understand the local dynamics of proteins in their native state, i.e. in their folded functionalstructure, is a prerequisite to understand their global dynamics and their biological function. In thepresent thesis, we investigated the local dynamics of several small proteins by recording thefluctuations of local probes along the amino-acid sequence of those proteins. We tried tounderstand the dynamics of the local probe, i.e. how they relax between their differentconformations, how their fluctuations are correlated to each other, how their fluctuations arerelated to the function of the proteins. In the first three chapters, we introduced the concepts of the free rotational Brownian motion, of the Nuclear Magnetic Resonance spectroscopy and of the Molecular Dynamics (MD)simulations. In chapters 4 and 5, we studied the dynamics of the backbone amide bonds of theproteins on their free-energy landscape. In chapter 4, we demonstrated that the fluctuations of the backbone amide bonds of the protein VA3 are described by a rotational anomalous diffusion rather than by a free rotationaldiffusion, as often assumed in the interpretation of the raw NMR-measured data (Spin relaxation(SR) data and Residual Dipolar Coupling (RDC) data. [...] In chapter 5, we demonstrated the anomalous diffusion of backbone amide bonds up to 100 ns by using ten MD trajectories of 1 μs of duration for the protein ubiquitin. We also studied the convergence of the NMR-derived parameters extracted from the MD trajectories in function of their duration. [...] In chapter 6, we addressed the question of the correlation between the motions of the side chains and main chain of a protein. [...] In the first part of the final chapter of the present thesis, we investigated the evolution of the correlation between the side-chain and the main-chain motions of a protein during unfolding/folding events. In this preliminary work, we used a single MD simulation of the ultrafast folder Trp-cage performed at 380 K. We confirmed the results found for proteins in theirnative state. We observed an increase of the correlation between the two time series yn(t) and δn(t) during an unfolding event characterized, here, by the exit of the TRP residue of its “cage”.A steric parameter s was also defined in order to quantify interactions of the amino-acid side chainwith its environment. In a second part of the last chapter, we present a preliminary study of theunfolding of the downhill folder gpW under a mechanical force. To characterized the unfolding ofgpW, we computed the chemical shift of the Cª and of the Hⁿ atoms along the amino-acidsequence of the protein in function of a reaction coordinate: the distance, rCªCª , between the Cª atoms of the N and C terminal residues. We demonstrated that it is hard to distinguish a typical behavior of all the chemical shift of all the residues along the amino-acid sequence in function of the distance rCªCª . However, by averaging the chemical shift over all the residues of the protein we found that the evolution of the average value of the chemical shift described the unfolding eventsof the protein during the MD simulations
|
86 |
FreeCore : un système d'indexation de résumés de document sur une Table de Hachage Distribuée (DHT) / FreeCore : an index system of summary of documents on an Distributed Hash Table (DHT)Ngom, Bassirou 13 July 2018 (has links)
Cette thèse étudie la problématique de l’indexation et de la recherche dans les tables de hachage distribuées –Distributed Hash Table (DHT). Elle propose un système de stockage distribué des résumés de documents en se basant sur leur contenu. Concrètement, la thèse utilise les Filtre de Blooms (FBs) pour représenter les résumés de documents et propose une méthode efficace d’insertion et de récupération des documents représentés par des FBs dans un index distribué sur une DHT. Le stockage basé sur contenu présente un double avantage, il permet de regrouper les documents similaires afin de les retrouver plus rapidement et en même temps, il permet de retrouver les documents en faisant des recherches par mots-clés en utilisant un FB. Cependant, la résolution d’une requête par mots-clés représentée par un filtre de Bloom constitue une opération complexe, il faut un mécanisme de localisation des filtres de Bloom de la descendance qui représentent des documents stockés dans la DHT. Ainsi, la thèse propose dans un deuxième temps, deux index de filtres de Bloom distribués sur des DHTs. Le premier système d’index proposé combine les principes d’indexation basée sur contenu et de listes inversées et répond à la problématique liée à la grande quantité de données stockée au niveau des index basés sur contenu. En effet, avec l’utilisation des filtres de Bloom de grande longueur, notre solution permet de stocker les documents sur un plus grand nombre de serveurs et de les indexer en utilisant moins d’espace. Ensuite, la thèse propose un deuxième système d’index qui supporte efficacement le traitement des requêtes de sur-ensembles (des requêtes par mots-clés) en utilisant un arbre de préfixes. Cette dernière solution exploite la distribution des données et propose une fonction de répartition paramétrable permettant d’indexer les documents avec un arbre binaire équilibré. De cette manière, les documents sont répartis efficacement sur les serveurs d’indexation. En outre, la thèse propose dans la troisième solution, une méthode efficace de localisation des documents contenant un ensemble de mots-clés donnés. Comparé aux solutions de même catégorie, cette dernière solution permet d’effectuer des recherches de sur-ensembles en un moindre coût et constitue est une base solide pour la recherche de sur-ensembles sur les systèmes d’index construits au-dessus des DHTs. Enfin, la thèse propose le prototype d’un système pair-à-pair pour l’indexation de contenus et la recherche par mots-clés. Ce prototype, prêt à être déployé dans un environnement réel, est expérimenté dans l’environnement de simulation peersim qui a permis de mesurer les performances théoriques des algorithmes développés tout au long de la thèse. / This thesis examines the problem of indexing and searching in Distributed Hash Table (DHT). It provides a distributed system for storing document summaries based on their content. Concretely, the thesis uses Bloom filters (BF) to represent document summaries and proposes an efficient method for inserting and retrieving documents represented by BFs in an index distributed on a DHT. Content-based storage has a dual advantage. It allows to group similar documents together and to find and retrieve them more quickly at the same by using Bloom filters for keywords searches. However, processing a keyword query represented by a Bloom filter is a difficult operation and requires a mechanism to locate the Bloom filters that represent documents stored in the DHT. Thus, the thesis proposes in a second time, two Bloom filters indexes schemes distributed on DHT. The first proposed index system combines the principles of content-based indexing and inverted lists and addresses the issue of the large amount of data stored by content-based indexes. Indeed, by using Bloom filters with long length, this solution allows to store documents on a large number of servers and to index them using less space. Next, the thesis proposes a second index system that efficiently supports superset queries processing (keywords-queries) using a prefix tree. This solution exploits the distribution of the data and proposes a configurable distribution function that allow to index documents with a balanced binary tree. In this way, documents are distributed efficiently on indexing servers. In addition, the thesis proposes in the third solution, an efficient method for locating documents containing a set of keywords. Compared to solutions of the same category, the latter solution makes it possible to perform subset searches at a lower cost and can be considered as a solid foundation for supersets queries processing on over-dht index systems. Finally, the thesis proposes a prototype of a peer-to-peer system for indexing content and searching by keywords. This prototype, ready to be deployed in a real environment, is experimented with peersim that allowed to measure the theoretical performances of the algorithms developed throughout the thesis.
|
87 |
Exploration et interrogation de données RDF intégrant de la connaissance métier / Integrating domain knowledge for RDF dataset exploration and interrogationOuksili, Hanane 21 October 2016 (has links)
Un nombre croissant de sources de données est publié sur le Web, décrites dans les langages proposés par le W3C tels que RDF, RDF(S) et OWL. Une quantité de données sans précédent est ainsi disponible pour les utilisateurs et les applications, mais l'exploitation pertinente de ces sources constitue encore un défi : l'interrogation des sources est en effet limitée d'abord car elle suppose la maîtrise d'un langage de requêtes tel que SPARQL, mais surtout car elle suppose une certaine connaissance de la source de données qui permet de cibler les ressources et les propriétés pertinentes pour les besoins spécifiques des applications. Le travail présenté ici s'intéresse à l'exploration de sources de données RDF, et ce selon deux axes complémentaires : découvrir d'une part les thèmes sur lesquels porte la source de données, fournir d'autre part un support pour l'interrogation d'une source sans l'utilisation de langage de requêtes, mais au moyen de mots clés. L'approche d'exploration proposée se compose ainsi de deux stratégies complémentaires : l'exploration thématique et la recherche par mots clés. La découverte de thèmes dans une source de données RDF consiste à identifier un ensemble de sous-graphes, non nécessairement disjoints, chacun représentant un ensemble cohérent de ressources sémantiquement liées et définissant un thème selon le point de vue de l'utilisateur. Ces thèmes peuvent être utilisés pour permettre une exploration thématique de la source, où les utilisateurs pourront cibler les thèmes pertinents pour leurs besoins et limiter l'exploration aux seules ressources composant les thèmes sélectionnés. La recherche par mots clés est une façon simple et intuitive d'interroger les sources de données. Dans le cas des sources de données RDF, cette recherche pose un certain nombre de problèmes, comme l'indexation des éléments du graphe, l'identification des fragments du graphe pertinents pour une requête spécifique, l'agrégation de ces fragments pour former un résultat, et le classement des résultats obtenus. Nous abordons dans cette thèse ces différents problèmes, et nous proposons une approche qui permet, en réponse à une requête mots clés, de construire une liste de sous-graphes et de les classer, chaque sous-graphe correspondant à un résultat pertinent pour la requête. Pour chacune des deux stratégies d'exploration d'une source RDF, nous nous sommes intéressés à prendre en compte de la connaissance externe, permettant de mieux répondre aux besoins des utilisateurs. Cette connaissance externe peut représenter des connaissances du domaine, qui permettent de préciser le besoin exprimé dans le cas d'une requête, ou de prendre en compte des connaissances permettant d'affiner la définition des thèmes. Dans notre travail, nous nous sommes intéressés à formaliser cette connaissance externe et nous avons pour cela introduit la notion de pattern. Ces patterns représentent des équivalences de propriétés et de chemins dans le graphe représentant la source. Ils sont évalués et intégrés dans le processus d'exploration pour améliorer la qualité des résultats. / An increasing number of datasets is published on the Web, expressed in languages proposed by the W3C to describe Web data such as RDF, RDF(S) and OWL. The Web has become a unprecedented source of information available for users and applications, but the meaningful usage of this information source is still a challenge. Querying these data sources requires the knowledge of a formal query language such as SPARQL, but it mainly suffers from the lack of knowledge about the source itself, which is required in order to target the resources and properties relevant for the specific needs of the application. The work described in this thesis addresses the exploration of RDF data sources. This exploration is done according to two complementary ways: discovering the themes or topics representing the content of the data source, and providing a support for an alternative way of querying the data sources by using keywords instead of a query formulated in SPARQL. The proposed exploration approach combines two complementary strategies: thematic-based exploration and keyword search. Theme discovery from an RDF dataset consists in identifying a set of sub-graphs which are not necessarily disjoints, and such that each one represents a set of semantically related resources representing a theme according to the point of view of the user. These themes can be used to enable a thematic exploration of the data source where users can target the relevant theme and limit their exploration to the resources composing this theme. Keyword search is a simple and intuitive way of querying data sources. In the case of RDF datasets, this search raises several problems, such as indexing graph elements, identifying the relevant graph fragments for a specific query, aggregating these relevant fragments to build the query results, and the ranking of these results. In our work, we address these different problems and we propose an approach which takes as input a keyword query and provides a list of sub-graphs, each one representing a candidate result for the query. These sub-graphs are ordered according to their relevance to the query. For both keyword search and theme identification in RDF data sources, we have taken into account some external knowledge in order to capture the users needs, or to bridge the gap between the concepts invoked in a query and the ones of the data source. This external knowledge could be domain knowledge allowing to refine the user's need expressed by a query, or to refine the definition of themes. In our work, we have proposed a formalization to this external knowledge and we have introduced the notion of pattern to this end. These patterns represent equivalences between properties and paths in the dataset. They are evaluated and integrated in the exploration process to improve the quality of the result.
|
88 |
Etude de la composition corporelle par impédancemétrie sur des adultes et des enfants sains et pathologiquesMoreno, M.V. 18 October 2007 (has links) (PDF)
L'étude de la composition corporelle permet notamment le suivi des volumes en eau du corps, du taux d'hydratation, ainsi que celui de la masse grasse, de la masse musculaire et de la masse cellulaire active. La bioimpédance permet d'accéder à ces informations de façon non invasive, indolore et peu coûteuse. Notre objectif a été de développer de nouvelles fonctionnalités pour un prototype de pèse-personne impédancemètre, souhaitant apporter ainsi des outils complémentaires au personnel médical. Pour ce faire, nous avons étudié des populations d'enfants et d'adultes sains et pathologiques. Nous avons utilisé un impédancemètre multifréquence, un prototype de pèse-personne impédancemètre permettant d'obtenir en plus de la masse grasse, les résistances à basse et haute fréquence, ainsi qu'un DEXA. Nous avons ainsi développé des équations permettant au prototype de donner les volumes en eau extracellulaire et totale, en plus de la masse maigre du corps. Nous avons aussi confirmé l'intérêt de paramètres tels que la phase ou la masse cellulaire pour le suivi de la dénutrition ou proposé de nouveaux indices tels que le rapport de la résistance extracellulaire sur la résistance à fréquence infinie. Nous avons aussi montré la fiabilité de l'impédancemétrie pour le suivi de surcharges hydriques et des thérapies associées.
|
89 |
ENSEIGNEMENT ET APPRENTISSAGE DES EQUATIONS, INEQUATIONS ET FONCTIONS AU SECONDAIRE : ENTRE SYNTAXE ET SEMANTIQUEKouki, Rahim 29 November 2008 (has links) (PDF)
Dans ce travail de recherche, nous nous intéressons à une étude didactique des objets équation, inéquation et fonction en faisant référence à la théorie sémantique de la vérité introduite par Frege et Russell et développée par Tarski et Quine, en particulier les notions de phrase ouverte ; satisfaction d'une phrase ouverte par un élément ; quantification, qui permettent de mieux expliciter les notions d'égalité et d'inégalité d'une part, le statut des lettres d'autre part.<br />Notre recherche s'inscrit dans la continuité des travaux de recherche de Durand-Guerrier et nous soutenons la thèse selon laquelle la logique des prédicats est pertinente pour l'analyse des questions liées l'articulation des deux points de vue sémantique et syntaxique dans l'enseignement et l'apprentissage des équations, inéquations et fonctions au secondaire.<br />Pour compléter les éclairages apportés par la sémantique logique, nous avons conduit une étude historique circonscrite des relations entre ces concepts mathématiques. Nous avons ainsi croisé cette étude avec notre perspective logique en vue de repérer la dyade sémantique/ syntaxe au moment de la formation de ces concepts.<br />La question principale étudiée dans l'exploration didactique concerne la possibilité de repérer, dans le développement des concepts d'équation, d'inéquation et de fonction, des phénomènes liés à la dialectique sémantique / syntaxe. Pour cela, nous avons conduit une analyse des programmes et des manuels de l'enseignement secondaire tunisien ; soumis un questionnaire à des élèves du secondaire et des étudiants de classes préparatoires ; proposé une situation d'apprentissage à quelques élèves volontaires et réalisé quelques entretiens avec des enseignants. Nos travaux montrent un recul du point de vue sémantique dès que les techniques syntaxiques sont disponibles, et une quasi absence d'articulation entre syntaxe et sémantique.
|
90 |
L'institutionnalisation de la formation à distance au Québec: le cas de la Télé-université (1972–1992)Guillemet, Patrick 15 June 2004 (has links) (PDF)
Cette thèse étudie le processus d'institutionnalisation de la formation à distance au Québec en l'analysant à partir du cas de la Télé-université, depuis sa création à titre d'organisme expérimental en 1972 jusqu'à l'octroi de ses lettres patentes en 1992. Si elle n'est pas la plus ancienne institution de formation à distance, elle n'en est pas moins la plus importante puisqu'elle représente la majeure partie des effectifs étudiants rejoints par cette forme d'enseignement.<br /><br />Notre étude met en évidence la diversité des attentes dont est investie la formation à distance ainsi que la multiplicité des facteurs (sociaux, économiques, organisationnels et politiques) qui modèlent son institutionnalisation. Nous étudions notamment le processus d'élaboration du projet de lettres patentes de la Télé-université jusqu'à l'acceptation finale. En l'occurrence, la prise de décision publique apparaît comme un phénomène contingent, qui résulte de la rencontre aléatoire de problèmes, de solutions et de la présence de décideurs enclins à agir. Notre étude montre ainsi de quelle façon et pour quelles raisons ce projet s'est trouvé transformé et comment s'est élaborée une politique de la formation à distance.
|
Page generated in 0.034 seconds