161 |
Structure des Couches d'InN et d'alliages (In,Al)NVilalta-Clemente, Arantxa 25 April 2012 (has links) (PDF)
En raison de leurs applications prometteuses dans les domaines de l'optoélectronique et de l'électronique, les semiconducteurs III-V à base d'azote: les nitrures (AlN, GaN, InN) et leurs alliages (InAlN, InGaN, AlGaN), font l'objet, depuis les années 1990, d'une activité intense en recherche et développement. Dans ce travail, nous avons étudié les propriétés structurales des couches d'InN et de l'alliage InAlN dans les hétérostructures InAlN/AlN/GaN et InAlN/GaN en combinant les techniques AFM, IBA, DRXHR, Raman et MET. L'étude des couches d'InN a été menée par DRX afin de déterminer la contrainte résiduelle, et on a cherché à faire une corrélation avec la morphologie des surfaces par AFM. Les contraintes résiduelles obtenues par DRX ont été comparées aux résultats de spectroscopie Raman, et on a pu montrer que toutes les couches avaient une contrainte résiduelle qui n'est pas purement bi-axiale. Les hétérostructures InAlN pour transistors à haute mobilité électronique (HEMTs) sont des couches ultraminces de quelques monocouches atomiques à plusieurs dizaines de nanomètres d'épaisseur. De plus, leur structure peut être assez complexe dans le but d'optimiser le gaz d'électrons généré dans le canal du transistor. Dans l'idéal, on utilise une concentration en indium autour de 17%, qui est celle de l'accord de paramètres cristallins avec le GaN. Nos travaux ont mis en évidence qu'il n'est pas facile de contrôler la composition locale; en effet la structure et morphologie des couches sont très sensibles aux conditions de croissance.
|
162 |
La trajectoire argumentative des représentations médiatiques dans les textes d'opinion en presse écrite le cas Elián González dans le Miami Herald, le Washington Post et le New York Times /Broustau, Nadège. January 1900 (has links) (PDF)
Thèse (Ph. D.)--Université Laval, 2007. / Titre de l'écran-titre (visionné le 5 mai 2008). Bibliogr.
|
163 |
La pénétration du marché de l'information médiatique français par Al-Jazeera : d'un soft power régional à une stratégie globale du Qatar ? : l'exemple de la couverture des élections présidentielles françaises de 2007 / The strategy of Al-Jazeera to penetrate in the frensh market : content analysis of the frensh presidential electionsAmri, Karima 18 June 2015 (has links)
Cette thèse a pour but de tenter de comprendre la nouvelle stratégie adoptée par Al-Jazeera afin d'appuyer l'hypothèse d'une volonté de pénétration du marché français ainsi que la méthode optée pour en assurer sa continuité. Après le succès de sa stratégie en vue de devenir le symbole de la libéralisation des médias arabes et de l'émergence d'une opinion publique lassée de la propagande des régimes en place , Al-Jazeera, chaine panarabe , se lance dans un défi médiatique international. Au début, la raison de la création de cette chaine nous semble venir principalement de la recherche d'une sorte de contrepoids médiatique face à la guerre menée par les Etats-Unis érigeant Al-Jazeera en option face à la manipulation des opinions publiques par cette superpuissance, mais après la création de (l'édition) Al-Jazeera English, certaines interrogations commencent à s'inviter autour des ambitions masquées d'internationalisation de cette chaine. En effet, l'idée d'une chaîne transnationale visant à devenir un média à dimension mondiale se présente de plus en plus à l'esprit d'un grand nombre des chercheurs, observateurs qualifiés de cette chaine. Après le fameux « printemps arabe », certains doutes se sont installés autour de ce média, moins relatifs à une quête de nouveaux marchés à l'échelle mondiale que témoignant de visées politiques souterraines entre le Qatar, les Etats-Unis, ainsi que certains dirigeants occidentaux. Ces derniers intervenant dans les dernières « révolutions arabes », que d'aucuns évoquent en terme de coups d'états préparés bien à l'avance, des doutes commencent à prendre forme de vérités concernant l'évolution de la scène politique arabe. Nous évoquerons rapidement ces hypothèses dans les conclusions de certaines parties de notre travail afin de proposer des explications et des éclaircissements supplémentaires à notre problématique, notamment dans sa dimension internationale. / This thesis has a goal of trying to understand the new strategy adopted by Al-Jazeera to support the hypothesis of a wish of penetration to the French market as well as a method which is opted to assure its continuity. After the success of its strategy within sight to become the symbol of the liberalisation of Arab media and of the emergence of a public opinion tired by the propaganda of current regimes , Al-Jazeera, a broadcast panarabic channel is launching in an international media challenge. At the beginning, the reason of the creation of this channel seems to us to come mainly from a research of a kind of media counterweight facing the war led by the United States in order to put optionally Al Jazeera face to the manipulation of public opinions by this superpower, but after the creation of (edition) Al-Jazeera English, some questionings begin inviting each other around the ambition of the internationalization hidden from this channel. In fact, the idea of a transnational broadcast channel aiming to become a media of a worldwide scale is becoming increasingly recognized in the mind of a large number of the researchers and qualified observers of this channel.After the famous Arab spring, some doubts have been established around this media, less related to a search of new markets on a worldwide scale, but only on showing a kind of underground policy between Qatar, the United States, as well as of some Western leaders.Intervening in the last Arab revolutions, not to say “coups d'états” prepared well beforehand, doubts begin to take form of the concerning truths of the evolution on the Arab political stage. We will recall these hypotheses in conclusions in some parts of our work in order to give an explanation and an additional elucidation to our problematic, in particular on an international dimension. The context, in which this broadcast channel was born, is a controversial context, which allowed Al-Jazeera to acquire an international aura beyond the Arab world. It is necessary, first of all, to remind of its coverage of the events of September 11th, 2001, about its processing of Islamic terrorism, about its coverage of war in Afghanistan, the second Intifada, then about the war in Iraq.
|
164 |
Routin in wireless sensor networks / Routage dans les réseaux de capteurs sans filKrol, Michal 15 March 2016 (has links)
Le paradigme d’Internet des objets (IoT) envisage d’élargir Internet actuelle avec un grand nombre de dispositifs intelligents. Réseaux de Capteurs sans Fil (WSN) déploie les dispositifs fonctionnant sur des approvisionnements énergétiques maigres et mesurant de phénomènes environnementaux (comme la température, la radioactivité, ou CO 2). Des applications populaires de WSN comprennent la surveillance, le télémétrie, et la prévention des catastrophes naturelles. Des défis majeurs de WSN sont comment permettre à l’efficacité énergétique, surmonter les déficiences de support sans fil, et d’opérer dans à la manière auto-organisée. L’intégration de WSN dans IoT se posera sur des standards ouvertes efforçant d’offrir évolutivité et de fiabilité dans une variété de scénarios et conditions de fonctionnement. Néanmoins, l’état actuel des standards a les problèmes d’interopérabilité et peuvent bénéficier de certaines améliorations. Les contributions de la thèse sont :Nous avons effectué une étude approfondie des filtres de Bloom et de leur utilisation dans le stockage de caractéristiques de nœud dans l’adresse IP. Différentes techniques de compression et de variantes de filtres nous ont permisde développer un système efficace qui comble l’écart entre le routage de caractéristiques et l’approche classique compatible avec les réseaux IPv6.Nous proposons Featurecast, un protocole de routage / service de nommage pourWSN. Il permet d’interroger les réseaux de capteurs en utilisant un ensemble de caractéristiques tout raccord en entête de paquet IPv6. Nous intégrons notre protocole dans RPL et introduisons une nouvelle mesure, qui augmentent l’efficacité de routage. Nous vérifions sa performance contre dans des simulations approfondies et des test sur des capteurs réels dans un bancd’essai à grande échelle. Simulations approfondies démontrent les avantagesde notre protocole en termes d’utilisation de la mémoire, le surcharge de con-trôle, le taux de livraison de paquets et la consommation d’énergie.Nous introduisons WEAVE - un protocole de routage pour les réseaux avec géolo-calisation. Notre solution n’utilise pas de message de contrôle et apprend sesvoies seulement en observant le trafic. Plusieurs mécanismes sont introduitspour garder un en-tête de taille fixe, contourner à la fois les petits commeles grands obstacles et fournir une communication efficace entre les nœuds.Nous avons effectué des simulations à grande échelle impliquant plus de 19000noeuds et des expériences avec des capteurs réels sur banc d’essai IoT-lab.Nos résultats montrent que nous atteignons bien meilleures performances enparticulier dans les réseaux grands et dynamiques sans introduire de surcharge / Internet of Things (IoT) paradigm envisages to expand the current Internet witha huge number of intelligent communicating devices. Wireless Sensor Networks(WSN) deploy the devices running on meagre energy supplies and measuring environmental phenomena (like temperature, radioactivity, or CO 2 ). WSN popularapplications include monitoring, telemetry, and natural disaster prevention. Major WSN challenges are energy efficiency, overcome impairments of wireless medium, and operate in the self-organisation. The WSN integrating IoT will rely on a set of the open standards striving to offer scalability and reliability in a variety of the operating scenarios and conditions. Nevertheless, the current state of the standards have interoperability issues and can benefit from further improvements. The contributions of the thesis work are:We performed an extensive study of Bloom Filters and their use in storing nodetext-based elements in IP address. Different techniques of compression andvariants of filters allowed us to develop an efficient system closing the gapbetween feature-routing and classic approach compatible with IPv6 networks.We propose Featurecast, a routing protocol/naming service for WSN. It allowsto query sensor networks using a set of characteristics while fitting in anIPv6 packet header. We integrate our protocol in RPL and introduce a newmetric, which increase the routing efficiency. We check its performance inboth extensive simulations and experimentations on real sensors in a large-scale Senslab testbed. Large-scale simulations demonstrate the advantagesof our protocol in terms of memory usage, control overhead, packet deliveryrate and energy consumption.We introduce WEAVE - a routing protocol for networks with geolocation. Our so-lution does not use any control message and learn its paths only by observingthe traffic. Several mechanisms are introduce to keep a fixed-size header andbypass both small as well as large obstacles and provide an efficient communication between nodes. We performed simulations on large scale involvingmore than 19000 nodes and real-sensor experimentations on IoT-lab testbed. Our results show that we achieve much better performance especially in large and dynamic networks without introducing any control overhead.
|
165 |
Génération procédurale de monde / Procedural generation of worldPeytavie, Adrien 07 July 2010 (has links)
Dans cette thèse, nous abordons le problème de la génération automatique de contenu graphique avec un haut niveau de détails pour la génération de mondes. Dans cette quête du réalisme, les principaux verrous scientifiques et techniques sont : la gestion des masses de données géométriques nécessaires à la création de variétés d'objets naturels, la prise en compte des interactions en les différents objets et le contrôle utilisateur.Notre approche s'appuie sur un modèle volumique original et unificateur permettant de représenter les différents matériaux d'un terrain. Nous proposons un ensemble d'algorithmes de haut niveau, combinant des étapes de simulation pour assurer la plausibilité physique et le réalisme visuel à des techniques de génération procédurale permettant de gérer efficacement la complexité. Nos algorithmes permettent ainsi de sculpter des terrains complexes avec des grottes ou des surplombs et de générer des routes avec des tunnels et des ponts permettant le franchissement d'obstacles naturels. / In this thesis, we address the problem of automatic generation of graphical content with a high level of detail for the generation of worlds. In this quest for realism, the major scientific and technical challenges include: managing the mass of geometric data needed to create varieties of natural objects, taking into account interactions with the various objects and user control.Our approach is based on an original volumetric model for representing and unifying the different materials of land. We offer a range of high-level algorithms, combining simulation steps to ensure physical plausibility and visual realism, and procedural generation techniques to effectively manage complexity. Our algorithms are used to sculpt and complex terrain with caves and overhangs and generate roads with tunnels and bridges to cross natural barriers.
|
166 |
Contributions à la détection de concepts et d'événements dans les documents vidéos / Contributions for the concepts and events detection in videos documentsDerbas, Nadia 30 September 2014 (has links)
L'explosion de la quantité de documents multimédias, suite à l'essor des technologies numériques, a rendu leur indexation très coûteuse et manuellement impossible. Par conséquent, le besoin de disposer de systèmes d'indexation capables d'analyser, de stocker et de retrouver les documents multimédias automatiquement, et en se basant sur leur contenu (audio, visuel), s'est fait ressentir dans de nombreux domaines applicatifs. Cependant, les techniques d'indexation actuelles rencontrent encore des problèmes de faisabilité ou de qualité. Leur performance reste très limitée et est dépendante de plusieurs facteurs comme la variabilité et la quantité de données à traiter. En effet, les systèmes d'indexation cherchent à reconnaître des concepts statiques, comme des objets (vélo, chaise,...), ou des événements (mariage, manifestation,...). Ces systèmes se heurtent donc au problème de variabilité de formes, de positions, de poses, d'illuminations, d'orientations des objets. Le passage à l'échelle pour pouvoir traiter de très grands volumes de données tout en respectant des contraintes de temps de calcul et de stockage est également une contrainte.Dans cette thèse, nous nous intéressons à l'amélioration de la performance globale de ces systèmes d'indexation de documents multimédias par le contenu. Pour cela nous abordons le problème sous différents angles et apportons quatre contributions à divers stades du processus d'indexation. Nous proposons tout d'abord une nouvelle méthode de fusion "doublement précoce " entre différentes modalités ou différentes sources d'informations afin d'exploiter au mieux la corrélation entre les modalités. Cette méthode est ensuite appliquée à la détection de scènes violentes dans les films. Nous développons ensuite une méthode faiblement supervisée pour la localisation des concepts basiques (comme les objets) dans les images qui pourra être utilisé plus tard comme un descripteur et une information supplémentaire pour la détection de concepts plus complexes (comme des événements). Nous traitons également la problématique de réduction du bruit généré par des annotations ambiguës sur les données d'apprentissage en proposant deux méthodes: une génération de nouvelles annotations au niveau des plans et une méthode de pondération des plans. Enfin, nous avons mis en place une méthode d'optimisation des représentations du contenu multimédia qui combine une réduction de dimension basée sur une ACP et des transformations non linéaires.Les quatre contributions sont testées et évaluées sur les collections de données faisant référence dans le domaine, comme TRECVid ou MediaEval. Elles ont participé au bon classement de nos soumissions dans ces campagnes. / A consequence of the rise of digital technology is that the quantity of available collections of multimedia documents is permanently and strongly increasing. The indexing of these documents became both very costly and impossible to do manually. In order to be able to analyze, classify and search multimedia documents, indexing systems have been defined. However, most of these systems suffer quality or practicability issues. Their performance is limited and depends on the data volume and data variability. Indexing systems analyze multimedia documents, looking for static concepts (bicycle, chair,...), or events (wedding, protest,...). Therefore, the variability in shapes, positions, lighting or orientation of objects hinders the process. Another aspect is that systems must be scalable. They should be able to handle big data while using reasonable amount of computing time and memory.The aim of this thesis is to improve the general performance of content-based multimedia indexing systems. Four main contributions are brought in this thesis for improving different stages of the indexing process. The first one is an "early-early fusion method" that merges different information sources in order to extract their deep correlations. This method is used for violent scenes detection in movies. The second contribution is a weakly supervised method for basic concept (objects) localization in images. This can be used afterwards as a new descriptor to help detecting complex concepts (events). The third contribution tackles the noise reduction problem on ambiguously annotated data. Two methods are proposed: a shot annotation generator, and a shot weighing method. The last contribution is a generic descriptor optimization method, based on PCA and non-linear transforms.These four contributions are tested and evaluated using reference data collections, including TRECVid and MediaEval. These contributions helped our submissions achieving very good rankings in those evaluation campaigns.
|
167 |
Influence de la variation de la concentration intracellulaire des désoxyribonucléotides et rubbonucléotides sur la stabilité génomique chez Pyrococcus abyssi / Influence of desoxyribonucleotides and ribonucleotides concentrations on the genome integrity in Pyrococcus abyssiLemor, Mélanie 17 November 2017 (has links)
Dans les trois domaines du vivant, que constituent les bactéries, les eucaryotes et les archées, une molécule a la capacité souveraine de gouverner la vie, la mère à l’origine de tous les mécanismes biologiques, l’ADN. S’il est évident de dire que le maintien de l’intégrité des génomes est essentiel à la vie, il existe deux systèmes qui le permettent, la réplication et la réparation de l’ADN. La fidélité de ces derniers est finement influencée par la disponibilité (ratio et balance) des précurseurs nucléotidiques désoxyribonucléotides (dNTPs) et ribonucléotides (rNTPs) au cours du cycle cellulaire. Même si la concentration intracellulaire en nucléotides est largement documentée chez les eucaryotes et les bactéries, ça n’est malheureusement pas le cas chez les archées. En ce qui concerne l’étude de la maintenance génomique, un groupe d’archées a intéressé les chercheurs de par leurs capacités à survivre dans des milieux dits extrêmes. Pyrococcus abyssi est l’une d’entre elles qui depuis de nombreuses années sert de modèle biologique pour répondre aux questions de la stabilité de l’ADN à haute température. Cette étude est centrée sur cette thématique et particulièrement sur les caractéristiques fonctionnelles des ADN polymérases: PolD, PolB et le complexe p41/p46. Initialement, le contenu en nucléotides a été évalué dans des cellules en phase exponentielle de croissance par la technique de chromatographie couplée à une double détection en spectrométrie de masse (zicHILIC-MS-MS). Les résultats montrent que le contenu en rNTPs est de 20 fois supérieur à celui en dNTPs. Pour cette raison, la discrimination sélective des dNTPs par les ADN polymérases est mise à l’épreuve. Même si, des mécanismes permettent d’exclure les rNMPs durant la synthèse de l’ADN, de récentes études ont montrées que des rNMPs étaient incorporés par des ADN pols. Ainsi, le ratio en nucléotides obtenu a été utilisé pour l’analyse de son effet sur la synthèse d’ADN par les ADN Pols et les extraits cellulaires de P. abyssi. Les résultats démontrent clairement que les rNMPs sont incorporés par l’ADN polymérase PolD. Puis, les conséquences de la présence des rNMPs dans l’ADN sur la réplication ont été étudiées et ont mis en évidence que les extraits cellulaires, tout comme les ADN Pols de P. abyssi étaient capables de « passer » un rNMP présent dans l’ADN. Pour finir, une étude de l’incorporation préférentielle de chaque dNMP et rNMP a été menée démontrant que la complémentarité des bases était respectée même lors de l’incorporation de rNMPs. Enfin, la caractérisation de la petite sous-unité, DP1, de PolD a permis de montrer sa capacité à retirer des rNMPs grâce à son activité de relecture, suggérant un premier rempart à la présence de rNMPs dans l’ADN. Pour conclure, ces résultats montrent que la présence de rNMPs dans l’ADN est un phénomène conservé dans les trois domaines du vivant. / In the three domains of life that include Bacteria, Eukarya and Archaea, one molecule has the sovereign ability to govern life, and not the least one, the mother of all biological mechanisms, DNA. Maintaining the integrity of genomes is obviously essential for life, and faithful DNA replication and repair are the guarantees. The fidelity of these two processes may vary depending on the availability and levels (balance and ratio) of deoxyribonucleotides (dNTPs) and ribonucleotides (rNTPs) during the cell-cycle. Even if intracellular concentration of nucleotides is largely documented in Eukarya and Bacteria, it remains limited in Archaea. From many years one group of Archaea is of great interest for studying genomic maintenance, because of its ability to survive in extremes environments. Pyrococcus abyssi is one of them that is used as biological model for deciphering the stability of DNA at elevated temperature in LM2E. The present work focuses on genomic integrity and particularly on the functional characterization of the three DNA polymerases: PolD, PolB and the p41/p46 complex. Initially, the nucleotide pool has been evaluated in exponentially growing cells using the highly sensitive method that combined chromatography and mass spectrometry (zicHILIC-MS-MS). The results show that rNTPs content is 20-fold higher than dNTPs. For that reason, fidelities of DNA polymerases are challenged to select the correct dNTP over the most abundant rNTP during DNA synthesis. Despite the fact that some mechanisms allow the exclusion of rNTPs from entry to the Pol active site, recent findings indicate that ribonucleotides are incorporated by different DNA Pols with surprisingly high frequency. In this work, the obtained intracellular balance and ratio of rNTPs and dNTP have been used to analyze their effect on DNA synthesis by P. abyssi DNA Pols and cell-free extracts. Our results clearly demonstrate that rNTP incorporation is detectable with distinct efficiencies among DNA pols. Secondly, the consequences of the presence of rNMPs in a DNA template on DNA polymerisation has been examined and highlights that cell-free extracts are able to bypass a single rNMP as well as replicative DNA polymerases. To strengthen that study, single nucleotide incorporation opposite rNMP or dNMP has been carried out and the results demonstrate that replicative Pyrococcus abyssi DNA Pols can basepair the complementary rNTPs opposite dNMPs, and vice-versa, the complementary dNTPs opposite rNMPs.Furthermore, the preliminary results obtained about the nucleolysis activities of the PolD small subunit, DP1, show that the DNA polymerase D is able to remove rNMPs from a DNA strand, suggesting a first level of protection against ribonucleotide contamination of DNA. Definitely, these data indicate that the presence of transient embedded rNMPs in genomic DNA represents a universally conserved phenomenon across Archaea, Bacteria and Eukarya.
|
168 |
Vers un système perceptuel de reconnaissance d'objets / Towards perceptual content based image retrievalAwad, Dounia 05 September 2014 (has links)
Cette thèse a pour objectif de proposer un système de reconnaissance d’images utilisant des informations attentionnelles. Nous nous intéressons à la capacité d’une telle approche à améliorer la complexité en temps de calcul et en utilisation mémoire pour la reconnaissance d’objets. Dans un premier temps, nous avons proposé d’utiliser un système d’attention visuelle comme filtre pour réduire le nombre de points d’intérêt générés par les détecteurs traditionnels [Awad 12]. En utilisant l’architecture attentionnelle proposée par Perreira da Silva comme filtre [Awad 12] sur la base d’images de VOC 2005, nous avons montré qu’un filtrage de 60% des points d’intérêt (extraits par Harris-Laplace et Laplacien) ne fait diminuer que légèrement la performance d’un système de reconnaissance d’objets (différence moyenne de AUC ~ 1%) alors que le gain en complexité est important (40% de gain en vitesse de calcul et 60% en complexité). Par la suite, nous avons proposé un descripteur hybride perceptuel-texture [Awad 14] qui caractérise les informations fréquentielles de certaines caractéristiques considérées comme perceptuellement intéressantes dans le domaine de l’attention visuelle, comme la couleur, le contraste ou l’orientation. Notre descripteur a l’avantage de fournir des vecteurs de caractéristiques ayant une dimension deux fois moindre que celle des descripteurs proposés dans l’état de l’art. L’expérimentation de ce descripteur sur un système de reconnaissance d’objets (le détecteur restant SIFT), sur la base d’images de VOC 2007, a montré une légère baisse de performance (différence moyenne de précision ~5%) par rapport à l’algorithme original, basé sur SIFT mais gain de 50% en complexité. Pour aller encore plus loin, nous avons proposé une autre expérimentation permettant de tester l’efficacité globale de notre descripteur en utilisant cette fois le système d’attention visuelle comme détecteur des points d’intérêt sur la base d’images de VOC 2005. Là encore, le système n’a montré qu’une légère baisse de performance (différence moyenne de précision ~3%) alors que la complexité est réduite de manière drastique (environ 50% de gain en temps de calcul et 70% en complexité). / The main objective of this thesis is to propose a pipeline for an object recognition algorithm, near to human perception, and at the same time, address the problems of Content Based image retrieval (CBIR) algorithm complexity : query run time and memory allocation. In this context, we propose a filter based on visual attention system to select salient points according to human interests from the interest points extracted by a traditionnal interest points detectors. The test of our approach, using Perreira Da Silva’s system as filter, on VOC 2005 databases, demonstrated that we can maintain approximately the same performance of a object recognition system by selecting only 40% of interest points (extracted by Harris-Laplace and Laplacian), while having an important gain in complexity (40% gain in query-run time and 60% in complexity). Furthermore, we address the problem of high dimensionality of descriptor in object recognition system. We proposed a new hybrid texture descriptor, representing the spatial frequency of some perceptual features extracted by a visual attention system. This descriptor has the advantage of being lower dimension vs. traditional descriptors. Evaluating our descriptor with an object recognition system (interest points detectors are Harris-Laplace & Laplacian) on VOC 2007 databases showed a slightly decrease in the performance (with 5% loss in Average Precision) compared to the original system, based on SIFT descriptor (with 50% complexity gain). In addition, we evaluated our descriptor using a visual attention system as interest point detector, on VOC 2005 databases. The experiment showed a slightly decrease in performance (with 3% loss in performance), meanwhile we reduced drastically the complexity of the system (with 50% gain in run-query time and 70% in complexity).
|
169 |
Inférence de la grammaire structurelle d’une émission TV récurrente à partir du contenu / Content-based inference of structural grammar for recurrent TV programs from a collection of episodesQu, Bingqing 03 December 2015 (has links)
Dans cette thèse, on aborde le problème de structuration des programmes télévisés de manière non supervisée à partir du point de vue de l'inférence grammaticale, focalisant sur la découverte de la structure des programmes récurrents à partir une collection homogène. On vise à découvrir les éléments structuraux qui sont pertinents à la structure du programme, et à l’inférence grammaticale de la structure des programmes. Des expérimentations montrent que l'inférence grammaticale permet de utiliser minimum des connaissances de domaine a priori pour atteindre la découverte de la structure des programmes. / TV program structuring raises as a major theme in last decade for the task of high quality indexing. In this thesis, we address the problem of unsupervised TV program structuring from the point of view of grammatical inference, i.e., discovering a common structural model shared by a collection of episodes of a recurrent program. Using grammatical inference makes it possible to rely on only minimal domain knowledge. In particular, we assume no prior knowledge on the structural elements that might be present in a recurrent program and very limited knowledge on the program type, e.g., to name structural elements, apart from the recurrence. With this assumption, we propose an unsupervised framework operating in two stages. The first stage aims at determining the structural elements that are relevant to the structure of a program. We address this issue making use of the property of element repetitiveness in recurrent programs, leveraging temporal density analysis to filter out irrelevant events and determine valid elements. Having discovered structural elements, the second stage is to infer a grammar of the program. We explore two inference techniques based either on multiple sequence alignment or on uniform resampling. A model of the structure is derived from the grammars and used to predict the structure of new episodes. Evaluations are performed on a selection of four different types of recurrent programs. Focusing on structural element determination, we analyze the effect on the number of determined structural elements, fixing the threshold applied on the density function as well as the size of collection of episodes. For structural grammar inference, we discuss the quality of the grammars obtained and show that they accurately reflect the structure of the program. We also demonstrate that the models obtained by grammatical inference can accurately predict the structure of unseen episodes, conducting a quantitative and comparative evaluation of the two methods by segmenting the new episodes into their structural components. Finally, considering the limitations of our work, we discuss a number of open issues in structure discovery and propose three new research directions to address in future work.
|
170 |
Features-based MRI brain classification with domain knowledge : application to Alzheimer's disease diagnosis / Classification des IRM par les descripteurs de contenu : application au diagnostic précoce de la maladie d’AlzheimerBen Ahmed, Olfa 14 January 2015 (has links)
Les outils méthodologiques en indexation et classification des images par le contenu sont déjà assez matures et ce domaine s’ouvre vers les applications médicales. Dans cette thèse,nous nous intéressons à l'indexation visuelle, à la recherche et à la classification des images cérébrales IRM par le contenu pour l'aide au diagnostic de la maladie d'Alzheimer (MA). L'idée principale est de donner au clinicien des informations sur les images ayant des caractéristiques visuelles similaires. Trois catégories de sujets sont à distinguer: sujets sains (NC), sujets à troubles cognitifs légers (MCI) et sujets atteints par la maladie d'Alzheimer(AD). Nous représentons l’atrophie cérébrale comme une variation de signal dans des images IRM (IRM structurelle et IRM de Tenseur de Diffusion). Cette tâche n'est pas triviale,alors nous nous sommes concentrés uniquement sur l’extraction des caractéristiques à partir des régions impliquées dans la maladie d'Alzheimer et qui causent des changements particuliers dans la structure de cerveau : l'hippocampe le Cortex Cingulaire Postérieur. Les primitifs extrais sont quantifiés en utilisant l'approche sac de mots visuels. Cela permet de représenter l’atrophie cérébrale sous forme d’une signature visuelle spécifique à la MA.Plusieurs stratégies de fusion d’information sont appliquées pour renforcer les performances de système d’aide au diagnostic. La méthode proposée est automatique (sans l’intervention de clinicien), ne nécessite pas une étape de segmentation grâce à l'utilisation d'un Atlas normalisé. Les résultats obtenus apportent une amélioration par rapport aux méthodes de l’état de l’art en termes de précision de classification et de temps de traitement. / Content-Based Visual Information Retrieval and Classification on Magnetic Resonance Imaging (MRI) is penetrating the universe of IT tools supporting clinical decision making. A clinician can take profit from retrieving subject’s scans with similar patterns. In this thesis, we use the visual indexing framework and pattern recognition analysis based on structural MRIand Tensor Diffusion Imaging (DTI) data to discriminate three categories of subjects: Normal Controls (NC), Mild Cognitive Impairment (MCI) and Alzheimer's Disease (AD). The approach extracts visual features from the most involved areas in the disease: Hippocampusand Posterior Cingulate Cortex. Hence, we represent signal variations (atrophy) inside the Region of Interest anatomy by a set of local features and we build a disease-related signature using an atlas based parcellation of the brain scan. The extracted features are quantized using the Bag-of-Visual-Words approach to build one signature by brain/ROI(subject). This yields a transformation of a full MRI brain into a compact disease-related signature. Several schemes of information fusion are applied to enhance the diagnosis performance. The proposed approach is less time-consuming compared to the state of thearts methods, computer-based and does not require the intervention of an expert during the classification/retrieval phase.
|
Page generated in 0.0659 seconds