• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 973
  • 347
  • 113
  • 15
  • 10
  • 8
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1552
  • 757
  • 275
  • 260
  • 241
  • 235
  • 231
  • 169
  • 163
  • 155
  • 151
  • 148
  • 141
  • 132
  • 123
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
731

Contraintes et assujettissements dans la formation des enseignants : une étude des effets d’Arrière-plan sur les pratiques des maîtres formateurs / Constraints and control in the training of teachers : the impact of Background effects on the practices of mentors in the teaching profession

Clabecq, Céline 27 June 2012 (has links)
L’institution confie aux maîtres formateurs une double mission d'enseignement dans une classe et de formateur d'adultes, leur confiant un rôle de « travailleur modèle » à la fois relais de la parole institutionnelle et représentant des « bonnes pratiques ». Ils sont alors assujettis à des phénomènes d’Arrière-plan qui conditionnent leurs possibilités d’action.L’enquête, menée dans un contexte de réforme institutionnelle (mise en place de la mastérisation des enseignants) met en évidence des contraintes qui pèsent sur les maîtres formateurs, tenus à un « devoir d’excellence » dans le cadre d’un ensemble de valeurs transmises et transformées tout au long de l’histoire de l’enseignement primaire, des écoles normales aux IUFM. Les données de terrain recueillies se composent d’entretiens avec des formateurs mais aussi d’observations directes : des stages de formation de formateurs (conférences pédagogiques), des situations de formation et d’évaluation des stagiaires, et des éléments d’autoanalyse de la pratique. La thèse montre que la dévolution de cette mission de formation aux maîtres formateurs produit, en lien avec un besoin de reconnaissance et de distinction, un double mouvement d’assujettissement aux demandes institutionnelles d’une part, et d’émancipation de la condition d’enseignant « ordinaire » d’autre part. Le concept de sensibilité au contrat institutionnel permet alors de comprendre comment les maîtres formateurs opèrent des ajustements entre les injonctions institutionnelles et les contraintes de la pratique. / Within the educational system, mentors are entrusted with two tasks: teaching, as well as training adults. In a sense, they are expected to act as “model workers”, transmitting official wisdom, and publicizing “good practices”. They are subjected to Background effects, which determine their leeway. Our research was conducted in the context of institutional changes, namely the granting of MAs to trainees for the teaching profession. It highlights the constraints bearing upon mentors, who are expected to maintain standards of excellence. Such standards were inherited from the traditional training schools for primary education (“écoles normales”) as well as the newer teacher training institutions (IUFM), but also underwent significant changes. Primary sources include interviews with mentors as well as direct observation: Training schemes for mentors, training sessions and assessment of trainees, self analysis. This dissertation purports to demonstrate that the granting of a responsibility in training to mentors craving for recognition and distinction leaves them in a double bind. On the one hand they are subjected to institutional injunctions, on the other hand they aspire to professional freedom and autonomy, just as any other teacher. Mentors in fact negotiate their way between official demands and the constraints of practical work. Acknowledging the existence of a “compact” between mentors and their institutional employer is essential to an understanding of this process of negotiation.
732

Nanomatériaux dendritiques vers l'électronique moléculaire et la médecine

Djeda, Rodrigue 08 October 2010 (has links)
Des dendrimères à cœur aromatique ayant des propriétés originales en électronique moléculaire ont été synthétisés pour des applications en tant que batteries moléculaires avec des systèmes redox robustes et pour la thérapie anti-cancer par capture de neutrons. Le premier thème a été focalisé sur les dendrimères à terminaison métallocénique ou bimétallocénique avec la recherche des propriétés électroniques y compris la stabilisation de valence mixte avec application pour la synthèse de nanoparticules métalliques contrôlée par le potentiel redox. Le second thème a impliqué la synthèse de dendrimères ayant des terminaisons carborane en collaboration avec le groupe du Prof. N. Hosmane de Chicago. Pour les deux thèmes, les assemblages ont été réalisés par réaction “click“ de type Huisguen entre des azotures terminaux des dendrimères et les alcynes terminaux. Les dendrimères ont été caractérisés à la fois à l'aide de techniques spectroscopiques et analytiques traditionnelles et à l'aide de techniques propres aux macromolécules (chromatographie d'exclusion stérique, RMN DOESY, diffusion de lumière dynamique). Le concept de base commun aux deux thèmes consiste à utiliser la topologie dendritique de grands dendrimères pour concentrer dans un nano-espace minimum une quantité élevée d'électrons pour les batteries moléculaires ou d'atomes de bore dont la densité est essentielle pour l'efficacité de la thérapie anti-cancer par capture de neutrons. / Dendrimers with aromatic core with original properties in molecular electronics have been synthesized for applications as molecular batteries with robust redox systems and the anti-cancer therapy by neutron capture. The first theme was focused on metallocene-terminated or bimetallocenyl dendrimers with the research of electronic properties including the stabilization of mixed valence with application for the synthesis of metal nanoparticles controlled by the redox potential. The second theme concerned the synthesis of dendrimers with carborane termini in collaboration with the Chicago group of Prof. N. Hosman. For both subjects, the connections have been made by "click" reaction of type Huisguen between alkynes and dendrimer terminals azides. The dendrimers were characterized at a time using traditional analytical and spectroscopic techniques and using own techniques to macromolecules (size exclusion chromatography, DOESY NMR, dynamic light scattering). The basic concept common to both themes is the use of dendritic topology of large dendrimers to concentrate in a nano-space at least a high amount of electrons to molecular batteries or boron atoms whose density is essential for efficiency of the anti-cancer therapy by neutron capture.
733

De l'intérêt des modèles grammaticaux pour la reconnaissance de motifs dans les séquences génomiques / Interest of grammatical models for pattern matching in genomic sequences

Antoine-Lorquin, Aymeric 01 December 2016 (has links)
Cette thèse en bioinformatique étudie l'intérêt de rechercher des motifs dans des séquences génomiques à l'aide de grammaires. Depuis les années 80, à l'initiative notamment de David Searls, des travaux ont montré qu'en théorie, des grammaires de haut niveau offrent suffisamment d'expressivité pour permettre la description de motifs biologiques complexes, notamment par le biais d'une nouvelle classe de grammaire dédiée à la biologie : les grammaires à variables de chaîne (SVG, String Variable Grammar). Ce formalisme a donné lieu à Logol, qui est un langage grammatical et un outil d'analyse développé dans l'équipe Dyliss où a lieu cette thèse. Logol est un langage conçu pour être suffisamment flexible pour se plier à une large gamme de motifs qu'il est possible de rencontrer en biologie. Le fait que les grammaires restent inutilisée pour la reconnaissance de motifs pose question. Le formalisme grammatical est-il vraiment pertinent pour modéliser des motifs biologiques ? Cette thèse tente de répondre à cette question à travers une démarche exploratoire. Ainsi, nous étudions la pertinence d'utiliser les modèles grammaticaux, via Logol, sur six applications différentes de reconnaissance de motifs sur des génomes. Au travers de la résolution concrète de problématiques biologiques, nous avons mis en évidence certaines caractéristiques des modèles grammaticaux. Une de leurs limites est que leur utilisation présente un coût en termes de performance. Un de leurs atouts est que leur expressivité couvre un large spectre des motifs biologiques, contrairement aux méthodes alternatives, et d'ailleurs certains motifs modélisés par les grammaires n'ont pas d'autres alternatives existantes. Il s'avère en particulier que pour certains motifs complexes, tels que ceux alliant séquence et structure, l'approche grammaticale est la plus adaptée. Pour finir, l'une des conclusions de cette thèse est qu'il n'y a pas réellement de compétition entre les différentes approches, mais plutôt qu'il y a tout à gagner d'une coopération fructueuse. / This thesis studies the interest to look for patterns in genomic sequences using grammars. Since the 80s, work has shown that, in theory, high level grammars offer enough expressivity to allow the description of complex biological patterns. In particular David Searls has proposed a new grammar dedicated to biology: string variable grammar (SVG). This formalism has resulted in Logol, a grammatical language and an analysis tool developed by Dyliss team where this thesis is taking place. Logol is a language designed to be flexible enough to express a wide range of biological patterns. The fact that the grammars remain unknown to model biological patterns raises questions. Is the grammatical formalism really relevant to the recognition of biological patterns? This thesis attempts to answer this question through an exploratory approach. We study the relevance of using the grammatical patterns, by using Logol on six different applications of genomic pattern matching. Through the practical resolution of biological problems, we have highlighted some features of grammatical patterns. First, the use of grammatical models presents a cost in terms of performance. Second the expressiveness of grammatical models covers a broad spectrum of biological patterns, unlike the others alternatives, and some patterns modeled by grammars have no other alternative solutions. It also turns out that for some complex patterns, such as those combining sequence and structure, the grammatical approach is the most suitable. Finally, a thesis conclusion is that there was no real competition between different approaches, but rather everything to gain from successful cooperation.
734

L'efficacité du système auditif humain pour la reconnaissance de sons naturels / The efficiency of the human auditory system for the recognition of natural sounds

Isnard, Vincent 25 November 2016 (has links)
L'efficacité de la reconnaissance auditive peut être décrite et quantifiée suivant deux aspects différents : la quantité d'information nécessaire pour y parvenir et sa rapidité. L'objectif de cette thèse est d'évaluer expérimentalement ces deux aspects. Dans une première partie expérimentale, nous nous sommes intéressés à la quantité d'information en créant des représentations parcimonieuses de sons naturels originaux appelées esquisses auditives. Nous avons montré qu'une esquisse auditive est reconnue malgré la quantité très limitée d'information auditive présente dans les stimuli. Pour l'analyse des stimuli auditifs, nous avons développé un modèle de distance auditive entre catégories sonores. Pour l'analyse des performances des participants, nous avons développé un modèle pour le calcul de la sensibilité par catégorie sonore et tenant compte du biais, qui s'intègre dans la théorie de détection du signal. Ces analyses nous ont permis de montrer qu'en réalité les résultats ne sont pas équivalents entre les différentes catégories sonores. La voix se démarque des autres catégories testées (e.g. instruments de musique) : la technique de sélection de l'information parcimonieuse ne semble pas adaptée aux indices de la voix. Dans une seconde partie expérimentale, nous avons étudié le décours temporel de la reconnaissance auditive. Afin d'estimer le temps nécessaire au système auditif pour reconnaître un son, nous avons utilisé un récent paradigme de présentation audio séquentielle rapide (RASP, pour Rapid Audio Sequential Presentation). Nous avons montré que moins de 50 ms suffisent pour reconnaître un son naturel court, avec une meilleure reconnaissance pour la pour la voix humaine. / The efficacy of auditory recognition relies on two different aspects: the quantity of information necessary and the processing speed. The objective of this thesis was to experimentally evaluate these two aspects. In a first experimental part, we explored the amount of information by creating sparse representations of original natural sounds to form what is called auditory sketches. We showed that an auditory sketch is recognizable despite the very limited quantity of auditory information in the stimuli. To achieve these results, we dedicated an important part of our work on the elaboration of adequate tools in function of the tested sound categories. Thus, for the analysis of auditory stimuli, we have developed an auditory distance model between sound categories. For the analysis of the performances of the participants, we have developed a model to calculate the sensitivity by sound category and taking into account the bias, which falls within the signal detection theory. These analyses allowed us to show that, actually, the results are not equivalent between the different sound categories. Voices stand out from the other categories tested (e.g. musical instruments): the technique of selection of the sparse information does not seem adapted to the voice features. In a second experimental part, we investigated the temporal course of auditory recognition. To estimate the time necessary for the auditory system to recognize a sound, we used a recent paradigm of Rapid Audio Sequential Presentation (RASP). We showed that less than 50 ms are enough to recognize a short natural sound, with a better recognition for the human voice.
735

Travail des eaux et conflit de reconnaissance : analyses réflexive, herméneutique et critique / Conflicts of recognition amongst water sectors workers : a reflective, hermeneutic, and critical analysis.

Nou, Cécile 23 June 2016 (has links)
Sur la base d’enquêtes de terrain menées en France auprès de travailleurs du service eau potable et assainissement, cette thèse explore la façon dont se tissent au cœur du travail les relations à soi, aux autres et à la nature pour en déceler les distorsions respectives. L’idée centrale est que c’est par la médiation de cette triple relation à soi, aux autres et à la nature que se construit une subjectivité au travail. C’est aussi par cette triple médiation qu’une subjectivité peut manquer à se construire et à inscrire l’histoire de ses pratiques dans un monde. Une double origine de ces distorsions a été identifiée. Premièrement, le cadre normalisant de l’organisation productive qui étouffe la puissance normative du travailleur et sa possibilité de tisser réflexivement des liens signifiants avec les autres et son environnement, et ultimement, avec soi. Secondement, autour des eaux, eau potable, eaux usées, se sont solidifiées des pratiques dépréciées et des représentations dépréciatives. Ces deux composantes expliquent la forme que prend la relégation des travailleurs des eaux et leur sentiment d’injustice. L’expérience de l’injustice décelée dans ce parcours des existences au travail, renforce la portée éthique et politique de cette enquête. La thèse examine finalement la possibilité d’ouvrir un espace de délibération où s’articuleraient de telles expériences. L’appropriation significative du travail est la condition de leur expression et celle de pratiques subversives par lesquelles torsion peut être faite aux structures polarisantes dont les travailleurs héritent. / Based on field investigations conducted in France among workers in the sanitation and drinking-water services, this dissertation studies how relationships to self, others and nature develop at work, but also how the relations between these three elements may become distorted. The principal argument is that at the core of work subjectivity is built throughout the mediation of this triple relationship between self, other, and nature. Moreover, throughout this triple mediation, subjectivity can fail to construct itself and thus to engrave the story of its practices in a world. A double source of distortions were identified. First, the normalizing frame of the productive organization, which stifles the normative power of the worker, as well as the individual’s opportunity reflexively to develop significant bonds with others, the environment, and finally the self. Second, water has significances which are articulated within a structure of domination. These two components explain how the workers are marginalised, as well as the feeling of injustice that results from this marginalisation. The experience of injustice, revealed in the course of existences at work, reinforces the ethical and political impact of this investigation. The dissertation finally examines how a deliberative space can open up where such experiences could articulate and express themselves. The appropriation of work as meaningful is the condition of this expression, but also of subversive practices through which polarizing structures, inherited by the workers, can potentially be transformed.
736

Inferring intentions through state representations in cooperative human-robot environments / Déduction d’intentions au travers de la représentation d’états au sein des milieux coopératifs entre homme et robot

Schlenoff, Craig 30 June 2014 (has links)
Les humains et les robots travaillant en toute sécurité et en parfaite harmonie dans un environnement est l'un des objectifs futurs de la communauté robotique. Quand les humains et les robots peuvent travailler ensemble dans le même espace, toute une catégorie de tâches devient prête à l'automatisation, allant de la collaboration pour l'assemblage de pièces, à la manutention de pièces et de materiels ainsi qu'à leur livraison. Garantir la sûreté des humains nécessite que le robot puisse être capable de surveiller la zone de travail, déduire l'intention humaine, et être conscient suffisamment tôt des dangers potentiels afin de les éviter.Des normes existent sur la collaboration entre robots et humains, cependant elles se focalisent à limiter les distances d'approche et les forces de contact entre l'humain et le robot. Ces approches s'appuient sur des processus qui se basent uniquement sur la lecture des capteurs, et ne tiennent pas compte des états futurs ou des informations sur les tâches en question. Un outil clé pour la sécurité entre des robots et des humains travaillant dans un environnement inclut la reconnaissance de l'intention dans lequel le robot tente de comprendre l'intention d'un agent (l'humain) en reconnaissant tout ou partie des actions de l'agent pour l'aider à prévoir les actions futures de cet agent. La connaissance de ces actions futures permettra au robot de planifier sa contribution aux tâches que l'humain doit exécuter ou au minimum, à ne pas se mettre dans une position dangereuse.Dans cette thèse, nous présentons une approche qui est capable de déduire l'intention d'un agent grâce à la reconnaissance et à la représentation des informations de l'état. Cette approche est différente des nombreuses approches présentes dans la littérature qui se concentrent principalement sur la reconnaissance de l'activité (par opposition à la reconnaissance de l'état) et qui « devinent » des raisons pour expliquer les observations. Nous déduisons les relations détaillées de l'état à partir d'observations en utilisant Region Connection Calculus 8 (RCC-8) et ensuite nous déduisons les relations globales de l'état qui sont vraies à un moment donné. L'utilisation des informations sur l'état sert à apporter une contribution plus précise aux algorithmes de reconnaissance de l'intention et à générer des résultats qui sont equivalents, et dans certains cas, meilleurs qu'un être humain qui a accès aux mêmes informations. / Humans and robots working safely and seamlessly together in a cooperative environment is one of the future goals of the robotics community. When humans and robots can work together in the same space, a whole class of tasks becomes amenable to automation, ranging from collaborative assembly to parts and material handling to delivery. Proposed standards exist for collaborative human-robot safety, but they focus on limiting the approach distances and contact forces between the human and the robot. These standards focus on reactive processes based only on current sensor readings. They do not consider future states or task-relevant information. A key enabler for human-robot safety in cooperative environments involves the field of intention recognition, in which the robot attempts to understand the intention of an agent (the human) by recognizing some or all of their actions to help predict the human’s future actions.We present an approach to inferring the intention of an agent in the environment via the recognition and representation of state information. This approach to intention recognition is different than many ontology-based intention recognition approaches in the literature as they primarily focus on activity (as opposed to state) recognition and then use a form of abduction to provide explanations for observations. We infer detailed state relationships using observations based on Region Connection Calculus 8 (RCC-8) and then infer the overall state relationships that are true at a given time. Once a sequence of state relationships has been determined, we use a Bayesian approach to associate those states with likely overall intentions to determine the next possible action (and associated state) that is likely to occur. We compare the output of the Intention Recognition Algorithm to those of an experiment involving human subjects attempting to recognize the same intentions in a manufacturing kitting domain. The results show that the Intention Recognition Algorithm, in almost every case, performed as good, if not better, than a human performing the same activity.
737

Qualité contextuelle des données : détection et nettoyage guidés par la sémantique des données / Contextual data quality : Detection and cleaning guided by data semantics

Ben salem, Aïcha 31 March 2015 (has links)
De nos jours, les applications complexes telles que l'extraction de connaissances, la fouille de données, le E-learning ou les applications web utilisent des données hétérogènes et distribuées. Dans ce contexte, la qualité de toute décision dépend de la qualité des données utilisées. En effet, avec l'absence de données riches, précises et fiables, une organisation peut prendre potentiellement de mauvaises décisions. L'objectif de cette thèse consiste à assister l'utilisateur dans sa démarche qualité. Il s'agit de mieux extraire, mélanger, interpréter et réutiliser les données. Pour cela, il faut rattacher aux données leurs sens sémantiques, leurs types, leurs contraintes et leurs commentaires. La première partie s'intéresse à la reconnaissance sémantique du schéma d'une source de données. Elle permet d'extraire la sémantique des données à partir de toutes les informations disponibles, incluant les données et les métadonnées. Elle consiste, d'une part, à classifier les données en leur attribuant une catégorie et éventuellement une sous-catégorie, et d'autre part, à établir des relations inter colonnes et de découvrir éventuellement la sémantique de la source de données manipulée. Ces liens inter colonnes une fois détectés offrent une meilleure compréhension de la source ainsi que des alternatives de correction des données. En effet, cette approche permet de détecter de manière automatique un grand nombre d'anomalies syntaxiques et sémantiques. La deuxième partie consiste à nettoyer les données en utilisant les rapports d'anomalies fournis par la première partie. Elle permet une correction intra colonne (homogénéisation des données), inter colonnes (dépendances sémantique) et inter lignes (élimination des doublons et similaire). Tout au long de ce processus, des recommandations ainsi que des analyses sont proposées à l'utilisateur. / Nowadays, complex applications such as knowledge extraction, data mining, e-learning or web applications use heterogeneous and distributed data. The quality of any decision depends on the quality of the used data. The absence of rich, accurate and reliable data can potentially lead an organization to make bad decisions.The subject covered in this thesis aims at assisting the user in its quality ap-proach. The goal is to better extract, mix, interpret and reuse data. For this, the data must be related to its semantic meaning, data types, constraints and comments.The first part deals with the semantic schema recognition of a data source. This enables the extraction of data semantics from all the available information, inculding the data and the metadata. Firstly, it consists of categorizing the data by assigning it to a category and possibly a sub-category, and secondly, of establishing relations between columns and possibly discovering the semantics of the manipulated data source. These links detected between columns offer a better understanding of the source and the alternatives for correcting data. This approach allows automatic detection of a large number of syntactic and semantic anomalies.The second part is the data cleansing using the reports on anomalies returned by the first part. It allows corrections to be made within a column itself (data homogeni-zation), between columns (semantic dependencies), and between lines (eliminating duplicates and similar data). Throughout all this process, recommendations and analyses are provided to the user.
738

Identification nommée du locuteur : exploitation conjointe du signal sonore et de sa transcription / Named identification of speakers : using audio signal and rich transcription

Jousse, Vincent 04 May 2011 (has links)
Le traitement automatique de la parole est un domaine qui englobe un grand nombre de travaux : de la reconnaissance automatique du locuteur à la détection des entités nommées en passant par la transcription en mots du signal audio. Les techniques de traitement automatique de la parole permettent d’extraire nombre d’informations des documents audio (réunions, émissions, etc.) comme la transcription, certaines annotations (le type d’émission, les lieux cités, etc.) ou encore des informations relatives aux locuteurs (changement de locuteur, genre du locuteur). Toutes ces informations peuvent être exploitées par des techniques d’indexation automatique qui vont permettre d’indexer de grandes collections de documents. Les travaux présentés dans cette thèse s’intéressent à l’indexation automatique de locuteurs dans des documents audio en français. Plus précisément nous cherchons à identifier les différentes interventions d’un locuteur ainsi qu’à les nommer par leur prénom et leur nom. Ce processus est connu sous le nom d’identification nommée du locuteur (INL). La particularité de ces travaux réside dans l’utilisation conjointe du signal audio et de sa transcription en mots pour nommer les locuteurs d’un document. Le prénom et le nom de chacun des locuteurs est extrait du document lui même (de sa transcription enrichie plus exactement), avant d’être affecté à un des locuteurs du document. Nous commençons par rappeler le contexte et les précédents travaux réalisés sur l’INL avant de présenter Milesin, le système développé lors de cette thèse. L’apport de ces travaux réside tout d’abord dans l’utilisation d’un détecteur automatique d’entités nommées (LIA_NE) pour extraire les couples prénom / nom de la transcription. Ensuite, ils s’appuient sur la théorie des fonctions de croyance pour réaliser l’affectation aux locuteurs du document et prennent ainsi en compte les différents conflits qui peuvent apparaître. Pour finir, un algorithme optimal d’affectation est proposé. Ce système obtient un taux d’erreur compris entre 12 et 20 % sur des transcriptions de référence (réalisées manuellement) en fonction du corpus utilisé. Nous présentons ensuite les avancées réalisées et les limites mises en avant par ces travaux. Nous proposons notamment une première étude de l’impact de l’utilisation de transcriptions entièrement automatiques sur Milesin. / The automatic processing of speech is an area that encompasses a large number of works : speaker recognition, named entities detection or transcription of the audio signal into words. Automatic speech processing techniques can extract number of information from audio documents (meetings, shows, etc..) such as transcription, some annotations (the type of show, the places listed, etc..) or even information concerning speakers (speaker change, gender of speaker). All this information can be exploited by automatic indexing techniques which will allow indexing of large document collections. The work presented in this thesis are interested in the automatic indexing of speakers in french audio documents. Specifically we try to identify the various contributions of a speaker and nominate them by their first and last name. This process is known as named identification of the speaker. The particularity of this work lies in the joint use of audio and its transcript to name the speakers of a document. The first and last name of each speaker is extracted from the document itself (from its rich transcription more accurately), before being assigned to one of the speakers of the document. We begin by describing the context and previous work on the speaker named identification process before submitting Milesin, the system developed during this thesis. The contribution of this work lies firstly in the use of an automatic detector of named entities (LIA_NE) to extract the first name / last name of the transcript. Afterwards, they rely on the theory of belief functions to perform the assignment to the speakers of the document and thus take into account the various conflicts that may arise. Finally, an optimal assignment algorithm is proposed. This system gives an error rate of between 12 and 20 % on reference transcripts (done manually) based on the corpus used.We then present the advances and limitations highlighted by this work.We propose an initial study of the impact of the use of fully automatic transcriptions on Milesin.
739

Segmentation supervisée d'actions à partir de primitives haut niveau dans des flux vidéos / Action supervised segmentation based on high level features on video streams

Chan-Hon-Tong, Adrien 29 September 2014 (has links)
Cette thèse porte sur la segmentation supervisée de flux vidéo dans un contexte applicatif lié à la reconnaissance d'actions de la vie courante.La méthode de segmentation proposée est dérivée la méthode des modèles de formes implicites (Implicit Shape Model) et s'obtient en optimisant les votes présents dans cette méthode d'élection.Nous démontrons que cette optimisation (dans un contexte de fenêtre temporelle glissante) peut être exprimée de manière équivalente dans le formalisme des SVM en imposant une contrainte de cohérence temporelle à l'apprentissage, ou, en représentant la fenêtre glissante selon une décomposition pyramidale dense.Tout ce processus est validé expérimentalement sur un jeu de données de la littérature de segmentation supervisée.Il y surpasse les autres méthodes de type modèles de formes implicites et le SVM linéaire standard.La méthode proposée est ensuite mise en œuvre dans le cadre de la segmentation supervisée d'actions.Pour cela, des primitives dédiées sont extraites des données squelette de la personne d'intérêt obtenues grâce à des logiciels standards.Ces primitives sont ensuite quantifiées puis utilisées par la méthode d'élection.Ce système de segmentation d'actions obtient les meilleurs scores de l'état de l'art sur un jeu de données de la littérature de reconnaissance d'actions, ce qui valide cette combinaison des primitives et de la méthode d'élection. / This thesis focuses on the supervised segmentation of video streams within the application context of daily action recognition.A segmentation algorithm is obtained from Implicit Shape Model by optimising the votes existing in this polling method.We prove that this optimisation can be linked to the sliding windows plus SVM framework and more precisely is equivalent with a standard training by adding temporal constraint, or, by encoding the data through a dense pyramidal decomposition. This algorithm is evaluated on a public database of segmentation where it outperforms other Implicit Shape Model like methods and the standard linear SVM.This algorithm is then integrated into a action segmentation system.Specific features are extracted from skeleton obtained from the video by standard software.These features are then clustered and given to the polling method.This system, combining our feature and our algorithm, obtains the best published performance on a human daily action segmentation dataset.
740

Aide à la détection et à la reconnaissance de défauts structurels dans les pipelines par analyse automatique des images XtraSonic / Helping Smart Detection and Recognition of pipeline structure failures based on automatic "XTraSonic Images" Processing and Analysis

Fouquet, Clément 13 June 2014 (has links)
TRAPIL est une société Française ayant à charge l'exploitation et l'entretien de pipelines d'hydrocarbures. L'entretien de pipelines enterrés nécessite le passage de racleurs équipés de sondes ultrasons réalisant une cartographie de la structure du pipeline, qui est ensuite analysée à la main afin de détecter et d'identifier les différents défauts pouvant apparaître ou évoluer.L'objectif de ce travail de thèse est d'apporter une solution algorithmique permettant d'accélérer et de compléter le travail des analystes à l'aide des méthodes modernes de traitement d'images et du signal.Notre approche suit le mode opératoire des experts et est découpée en trois partie.Tout d'abord nous réalisons une détection des soudures d'aboutage permettant de séparer le pipelines en les différents tubes qui le composent. Les signaux de sondes représentant la circonférence du tube sont regroupés et compressés dans une détection de rupture par comparaison de moyenne à court et long terme, puis les signaux résultants sont fusionnés à l'aide d'une pondération unique permettant une augmentation majeure du contraste entre bruit et soudure, offrant une détection et une localisation presque sans faille.Les tubes subissent ensuite une première segmentation visant à éliminer le plus grand nombre de pixels sains. Usant de modélisation d'histogramme des valeurs d'épaisseur par un algorithme EM initialisé pour notre problématique, l'algorithme suit un principe récursif comparable aux méthodes de type split and merge pour détecter et isoler les zones dangereuses.Enfin, Les zones dangereuses sont identifiées à l'aide d'une foret aléatoire, apprise sur un grand nombre d'exemples de défauts. Cette troisième partie est centrée sur l'étude de différentes méthodes de reconnaissance de forme appliquées à notre nouvelle problématique.Au travers de ces différentes étapes, les solutions que nous avons apportées permettent à TRAPIL un gain de temps significatif sur les tâches les plus fastidieuses du processus d'analyse (par exemple 30% sur la détection de soudures) et leur offre de nouvelles possibilités commerciales, par exemple la possibilité de fournir un pré-rapport à leur clientèle en quelques jours pendant que l'analyse manuelle est réalisée pouvant prendre plus d'un mois. / TRAPIL is a French society who is in charge of exploitation and maintenance of oil pipelines. Maintenance of buried pipeline implies the use of ultrasonic sensor-equipped devices, providing thickness and structural maps of the pipe, which are analysed by experts in order to detect and identify defects that may appear or evolve.The objective of this work is to provide an algoritmic solution allowing to accelerate and aid the experts's work with modern image and signal processing methods.Our approach follows the experts's operating mode and is divided in three sections.First, a weld detection is realized allowing to split the pipe in tubes. The signals of probes representing the circumference of the pipe are regrouped and compressed through an abrupt change detection, using short and long-term average comparison, then the resulting signals are merged using a unique weightening function allowing a massive increase of the contrast between welds and noise, offering near-perfect detection and localization.The tubes then undergoes a first segmentation aiming at eliminating a large amount of sane pixels. Using histogram modelization through an EM algorithm tuned specially for our purpose, the algorithm follows a recursive approach comparable to split and merge methods to detect and isolate dangerous areas.Finally, those dangerous areas are identified with a Random Forest, which has been learnt on a large amount of defect examples. This third part is greatly focused on the study of different pattern recognition methods applied on our new problematic.Through those different steps, the solution we brought allows TRAPIL to save a lot of time on the most tedious tasks of the analysis process (for example 30% of gain in processing time for the weld detection) and offers new commercial possibilities, like for example the possibility to provide their clients a first report in a matter of days, while the manual analysis is completed, which can take more than a month.

Page generated in 0.0344 seconds