• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 273
  • 114
  • 22
  • 8
  • 6
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 456
  • 107
  • 92
  • 81
  • 78
  • 73
  • 57
  • 55
  • 55
  • 47
  • 45
  • 44
  • 44
  • 37
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Optimisation of liquid fuel injection in gas turbine engines

Comer, Adam Landon January 2013 (has links)
No description available.
302

Traçage de contenu vidéo : une méthode robuste à l'enregistrement en salle de cinéma

Garboan, Adriana 13 December 2012 (has links) (PDF)
Composantes sine qua non des contenus multimédias distribués et/ou partagés via un réseau, les techniques de fingerprinting permettent d'identifier tout contenu numérique à l'aide d'une signature (empreinte) de taille réduite, calculée à partir des données d'origine. Cette signature doit être invariante aux transformations du contenu. Pour des vidéos, cela renvoie aussi bien à du filtrage, de la compression, des opérations géométriques (rotation, sélection de sous-région... ) qu'à du sous-échantillonnage spatio-temporel. Dans la pratique, c'est l'enregistrement par caméscope directement dans une salle de projection qui combine de façon non linéaire toutes les transformations pré-citées.Par rapport à l'état de l'art, sous contrainte de robustesse à l'enregistrement en salle de cinéma, trois verrous scientifiques restent à lever : (1) unicité des signatures, (2) appariement mathématique des signatures, (3) scalabilité de la recherche au regard de la dimension de la base de données.La principale contribution de cette thèse est de spécifier, concevoir, implanter et valider TrackART, une nouvelle méthode de traçage des contenus vidéo relevant ces trois défis dans un contexte de traçage de contenus cinématographiques.L'unicité de la signature est obtenue par sélection d'un sous-ensemble de coefficients d'ondelettes, selon un critère statistique de leurs propriétés. La robustesse des signatures aux distorsions lors de l'appariement est garantie par l'introduction d'un test statistique Rho de corrélation. Enfin, la méthode développée est scalable : l'algorithme de localisation met en œuvre une représentation auto-adaptative par sac de mots visuels. TrackART comporte également un mécanisme de synchronisation supplémentaire, capable de corriger automatiquement le jitter introduit par les attaques de désynchronisation variables en temps.La méthode TrackART a été validée dans le cadre d'un partenariat industriel, avec les principaux professionnels de l'industrie cinématographique et avec le concours de la Commission Technique Supérieure de l'Image et du Son. La base de données de référence est constituée de 14 heures de contenu vidéo. La base de données requête correspond à 25 heures de contenu vidéo attaqué, obtenues en appliquant neuf types de distorsion sur le tiers des vidéo de la base de référence.Les performances de la méthode TrackART ont été mesurées objectivement dans un contexte d'enregistrement en salle : la probabilité de fausse alarme est inférieure à 16*10^-6, la probabilité de perte inférieure à 0,041, la précision et le rappel sont égal à 93%. Ces valeurs représentent une avancée par rapport à l'état de l'art qui n'exhibe aucune méthode de traçage robuste à l'enregistrement en salle et valident une première preuve de concept de la méthodologie statistique développée.
303

Affective word priming in the left and right visual fields in young and older individuals

Abbassi, Ensie 12 1900 (has links)
Alors que les hypothèses de valence et de dominance hémisphérique droite ont longtemps été utilisées afin d’expliquer les résultats de recherches portant sur le traitement émotionnel de stimuli verbaux et non-verbaux, la littérature sur le traitement de mots émotionnels est généralement en désaccord avec ces deux hypothèses et semble converger vers celle du décours temporel. Cette dernière hypothèse stipule que le décours temporal lors du traitement de certains aspects du système sémantique est plus lent pour l’hémisphère droit que pour l’hémisphère gauche. L’objectif de cette thèse est d’examiner la façon dont les mots émotionnels sont traités par les hémisphères cérébraux chez des individus jeunes et âgés. À cet effet, la première étude a pour objectif d’évaluer l’hypothèse du décours temporel en examinant les patrons d’activations relatif au traitement de mots émotionnels par les hémisphères gauche et droit en utilisant un paradigme d’amorçage sémantique et une tâche d’évaluation. En accord avec l’hypothèse du décours temporel, les résultats obtenus pour les hommes montrent que l’amorçage débute plus tôt dans l’hémisphère gauche et plus tard dans l’hémisphère droit. Par contre, les résultats obtenus pour les femmes sont plutôt en accord avec l’hypothèse de valence, car les mots à valence positive sont principalement amorcés dans l’hémisphère gauche, alors que les mots à valence négative sont principalement amorcés dans l’hémisphère droit. Puisque les femmes sont considérées plus « émotives » que les hommes, les résultats ainsi obtenus peuvent être la conséquence des effets de la tâche, qui exige une décision explicite au sujet de la cible. La deuxième étude a pour objectif d’examiner la possibilité que la préservation avec l’âge de l’habileté à traiter des mots émotionnels s’exprime par un phénomène compensatoire d’activations bilatérales fréquemment observées chez des individus âgés et maintenant un haut niveau de performance, ce qui est également connu sous le terme de phénomène HAROLD (Hemispheric Asymmetry Reduction in OLDer adults). En comparant les patrons d’amorçages de mots émotionnels auprès de jeunes adultes et d’adultes âgés performants à des niveaux élevés sur le plan comportemental, les résultats révèlent que l’amorçage se manifeste unilatéralement chez les jeunes participants et bilatéralement chez les participants âgés. Par ailleurs, l’amorçage se produit chez les participants âgés avec un léger délai, ce qui peut résulter d’une augmentation des seuils sensoriels chez les participants âgés, qui nécessiteraient alors davantage de temps pour encoder les stimuli et entamer l’activation à travers le réseau sémantique. Ainsi, la performance équivalente au niveau de la précision retrouvée chez les deux groupes de participants et l’amorçage bilatéral observé chez les participants âgés sont en accord avec l’hypothèse de compensation du phénomène HAROLD. / While the right hemisphere and valence hypotheses have long been used to explain the results of research on emotional nonverbal and verbal stimuli processing, the literature on emotional word processing is highly inconsistent with both hypotheses, but appear to converge with the time course hypothesis. The time course hypothesis holds that in the processing of some parts of the semantic system the time course of activation is slower in the right hemisphere compared to the left hemisphere. The goal of this thesis was to find insight into the ways in which words with emotional words are processed in the cerebral hemispheres in young and older individuals. To this end, the first study investigated the time course hypothesis looking at the activation pattern of emotional words in the left and right hemispheres, using the priming paradigm and an evaluation task. Consistent with the time course hypothesis, the results in males revealed an early and later priming in the left and right hemispheres, respectively. The results for females, however, were consistent with the valence hypothesis, since positive and negative words were optimally primed in the left and right hemispheres, respectively. As females are considered more emotional than males, their results may be due to the nature of the task, which required an explicit decision concerning the target. The second study looked at the possibility that the preservation with age of the ability to process emotional words would follow the compensatory role of bilateral activation in high performing older individuals known as the HAROLD phenomenon (Hemispheric Asymmetry Reduction in OLDer adults). Comparing the pattern of emotional word priming in a group of equally high performing older and younger, it was shown that while priming occurred unilaterally in young participants, the pattern of priming in older participants appeared to be bilateral. The occurrence of priming in older adults occurred with a tiny delay, though, that may be due to an increase in sensory thresholds that causes older adults to need more time to encode stimuli and start activation through the semantic network. Thus, the bilateral pattern of priming and the equivalent level of performance in older adults provide behavioral evidence supporting the compensatory role of the HAROLD phenomenon.
304

Limiter le besoin de tiers de confiance en cryptographie

Abdalla, Michel 24 November 2011 (has links) (PDF)
Les tiers de confiance sont essentiels aux communications sécurisées. Par exemple, dans une infrastructure de gestion de clés, l'autorité de certification est la clé de voute de l'authentification en garantissant le lien entre une identité et une clé publique. Une carte à puce se doit, pour sa part, d'assurer la confidentialité et l'intégrité des données secrètes lorsqu'elle sert de stockage de données cryptographiques. En effet, si ces garanties sont mises en défaut dans l'une de ces situations, alors la sécurité globale du système peut en être affectée. Plusieurs approches permettent de réduire l'importance des tiers de confiance, telles qu'accroître la difficulté de recouvrer la clé secrète, en la distribuant parmi plusieurs entités, ou limiter l'impact d'une fuite d'information secrète, comme dans les cryptosystèmes "intrusion-resilient" ou "forward-secure". Dans cette thèse, nous considérons deux méthodes complémentaires. La première méthode consiste à utiliser des mots de passe, ou des clés secrètes de faible entropie, qui n'ont pas besoin d'être stockés dans un dispositif cryptographique sécurisé. Malgré la faible entropie du secret, de tels protocoles peuvent fournir un niveau d'assurance satisfaisant pour la plupart des applications. On considère en particulier la mise en accord de clés. La deuxième méthode limite le besoin de garantie de la part des tiers de confiance en utilisant un cryptosystème basé sur l'identité, dans lequel la clé publique d'un utilisateur peut être une chaîne de caractères arbitraire, telle qu'une adresse email. Comme ces systèmes fournissent une résistance aux collusions, ils peuvent aussi être utilisés pour réduire les dommages causés par l'exposition de clés secrètes en générant des secrets indépendants pour chaque période de temps ou pour chaque périphérique/entité. Par ailleurs, ces systèmes basés sur l'identité permettent aux utilisateurs d'avoir un contrôle plus fin sur les capacités de déchiffrement des tiers, en limitant les conséquences liées à un mauvais usage.
305

Caractérisation des processus d'innovation dans les entreprises de services

Soille, Philippe 21 December 2011 (has links) (PDF)
RESUME : Les recherches en matière d'innovation démontrent que tous les types d'entreprises sont concernés par le sujet. De même il est avéré que l'innovation, pour s'inscrire dans une réalité qualitative et acceptable économiquement, doit en permanence veiller à être en contact avec son marché. Simultanément à ces exigences, accentuées par l'accélération de la circulation de l'information, les entreprises sont amenées à organiser la recherche et l'innovation au sein de leurs organisations collectives respectives, de façon distribuée auprès de chacun de leurs acteurs. La part des services est croissante dans ce contexte complexe de pilotage de connaissances et de compétences requises, s'agissant des principales caractéristiques des intervenants. Les entreprises sont dès lors amenées à solliciter de plus en plus ces derniers dont principalement le client ou l'usager. Il occupe désormais une place centrale dans ces processus de partage de savoirs et de mise en œuvre de projets innovants. Piloter l'innovation dans les métiers de services, ne peut donc se limiter à une transposition de méthodes industrielles documentées et aujourd'hui bien connues. Innover ne peut être un métier seulement technique et la prise en compte de spécificités des métiers de services est indispensable. L'objectif de notre thèse est de proposer une caractérisation générale de méthodes et d'organisation R&D rendues possibles et efficaces dans une entreprise de services. Notre travail nous a permis d'identifier quatre volets dont les paramètres peuvent être ajustés en fonction des nécessités : 1-Un volet d'ingénierie : la gestion du risque dont l'objectif est de donner un socle tangible à notre modèle de fonctionnement ; 2-Un volet organisationnel, indissociable d'une approche par les sciences humaines et sociales, qui nous permet de modéliser ou caractériser la notion de pôle de compétences indispensable au bon fonctionnement de l'organisation. Il est possible de l'illustrer à la façon d'un cluster de connaissances, compétences et pratiques opérationnelles. 3-Un volet technique dont l'objectif est de faire émerger des outils de conception en lien avec les spécificités de chaque pratique de service. 4-Un volet économique peut optionnellement et avantageusement compléter l'approche que nous proposons afin de consolider notre schéma d'ensemble par la recherche d'une pertinence instantanée et mesurable de l'ensemble de nos actions et la quantification de la performance des outils utilisés à ce titre. Notre travail a fait l'objet de 2 communications dans des colloques nationaux et de 2 publications dans des revues nationales à comité de lecture. Une publication a été soumise dans une revue internationale à comité de lecture. Les recherches et les expérimentations que nous avons menées se sont appuyées sur le Pôle R&D du Groupe FLO, créé en 2008 et dirigé par l'auteur de la thèse. Cette réalisation unique dans le secteur de la restauration commerciale à table, constitue l'aboutissement de notre travail de recherche partenariale.
306

Extraction, Exploitation and Evaluation of Document-based Knowledge

Doucet, Antoine 30 April 2012 (has links) (PDF)
Les travaux présentés dans ce mémoire gravitent autour du document numérique : Extraction de connaissances, utilisation de connaissances et évaluation des connaissances extraites, d'un point de vue théorique aussi bien qu'expérimental. Le fil directeur de mes travaux de recherche est la généricité des méthodes produites, avec une attention particulière apportée à la question du passage à l'échelle. Ceci implique que les algorithmes, principalement appliqués au texte dans ce mémoire, fonctionnent en réalité pour tout type de donnée séquentielle. Sur le matériau textuel, la généricité et la robustesse algorithmique des méthodes permettent d'obtenir des approches endogènes, fonctionnant pour toute langue, pour tout genre et pour tout type de document (et de collection de documents). Le matériau expérimental couvre ainsi des langues utilisant différents alphabets, et des langues appartenant à différentes familles linguistiques. Les traitements peuvent d'ailleurs être appliqués de la même manière au grain phrase, mot, ou même caractère. Les collections traitées vont des dépêches d'agence de presse aux ouvrages numérisés, en passant par les articles scientifiques. Ce mémoire présente mes travaux en fonction des différentes étapes du pipeline de traitement des documents, de leur appréhension à l'évaluation applicative. Le document est ainsi organisé en trois parties décrivant des contributions en : extraction de connaissances (fouille de données séquentielle et veille multilingue) ; exploitation des connaissances acquises, par des applications en recherche d'information, classification et détection de synonymes via un algorithme efficace d'alignement de paraphrases ; méthodologie d'évaluation des systèmes d'information dans un contexte de données massives, notamment l'évaluation des performances des systèmes de recherche d'information sur des bibliothèques numérisées.
307

Elaboration de ressources électroniques pour les noms composés de type N (E+DET=G) N=G du grec moderne

Kyriakopoulou, Anthoula 25 March 2011 (has links) (PDF)
L'objectif de cette recherche est la construction manuelle de ressources lexicales pour les noms composés grecs qui sont définis par la structure morphosyntaxique : Nom (E+Déterminant au génitif) Nom au génitif, notés N (E+DET:G) N:G (e.g. ζώνη ασφαλείας/ceinture de sécurité). Les ressources élaborées peuvent être utilisées pour leur reconnaissance lexicale automatique dans les textes écrits et dans d'autres applications du TAL. Notre travail s'inscrit dans la perspective de l'élaboration du lexique-grammaire général du grec moderne en vue de l'analyse automatique des textes écrits. Le cadre théorique et méthodologique de cette étude est celui du lexique-grammaire (M. Gross 1975, 1977), qui s'appuie sur la grammaire transformationnelle harisienne.Notre travail s'organise en cinq parties. Dans la première partie, nous délimitons l'objet de notre travail tout en essayant de définir la notion fondamentale qui régit notre étude, à savoir celle de figement. Dans la deuxième partie, nous présentons la méthodologie utilisée pour le recensement de nos données lexicales et nous étudions les phénomènes de variation observés au sein des noms composés de type N (E+DET:G) N:G. La troisième partie est consacrée à la présentation des différentes sous-catégories des N (E+DET:G) N:G identifiées lors de l'étape du recensement et à l'étude de leur structure lexicale interne. La quatrième partie porte sur l'étude syntaxico-sémantique des N (E+DET:G) N:G. Enfin, dans la cinquième partie, nous présentons les différentes méthodes de représentation formalisée que nous proposons pour nos données lexicales en vue de leur reconnaissance lexicale automatique dans les textes écrits. Des échantillons représentatifs des ressources élaborées sont présentés en Annexe
308

Les effets d'un programme de développement de la compétence morphologique sur la compétence morphologique, l'identification et la production des mots écrits chez des élèves arabophones de 2e cycle du primaire scolarisés en français

Fejzo, Anila 06 1900 (has links) (PDF)
La présente recherche vise à examiner les effets d'un programme de développement de la compétence morphologique sur l'identification et la production des mots écrits chez des lecteurs et des scripteurs intermédiaires arabophones en FL2. Dans ce but, 53 élèves arabophones de 3e et 4e année du primaire scolarisés en français ont participé à cette recherche. Les élèves du groupe expérimental ont suivi des activités de compétence morphologique accompagnées d'activités en lecture et en écriture pendant douze semaines. Afin de vérifier les effets de cette intervention, les élèves des deux groupes ont passé des tests de compétence morphologique, d'identification des mots et de production des mots avant et après l'intervention. Des tests sur des variables de contrôle telles que la conscience phonologique, la dénomination rapide et la capacité d'apprentissage ont été également administrés. Après l'analyse des résultats, il ressort que les élèves du groupe expérimental performent significativement mieux que ceux du groupe contrôle en compétence morphologique, en identification et production des mots écrits morphologiquement complexes. Ces résultats suggèrent que le développement de la compétence morphologique pourrait contribuer à l'amélioration de l'identification et de la production des mots écrits chez les lecteurs et les scripteurs intermédiaires arabophones en FL2. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : morphèmes, compétence morphologique, règles de jonction des morphèmes, identification des mots écrits, production des mots écrits, français langue seconde, clientèle en L2, population arabophone, intervention, programme de développement, enseignement explicite.
309

Recensement et description des mots composés - méthodes et applications

Savary, Agata 14 December 2000 (has links) (PDF)
Ce mémoire décrit les recherches en informatique linguistique menées par l'auteur dans le domaine des mots composés, et plus spécialement de la composition nominale en anglais général et spécialisé. Le point de départ pour toutes les recherches présentées a été le système de traitement automatique de grands corpus, INTEX?.<br />Nous nous sommes penchée sur le problème du recensement des mots composés à grande échelle. Nous avons essayé de répondre aux questions suivantes :<br />1) Comment ce recensement peut être effectué ?<br />2) Est-il utile de le réaliser ?<br />La réponse à la première question est donnée dans le contexte de la création de dictionnaires électroniques, sous formats disponibles dans le système INTEX. Nous analysons la morphologie flexionnelle des noms composés en trois langues : le français, l'anglais et le polonais. Nous proposons une méthode formelle de description du comportement flexionnel des composés, ainsi qu'un algorithme qui génère automatiquement leurs formes fléchies. Nous décrivons la construction de deux dictionnaires électroniques : l'un pour les mots composés de l'anglais général, l'autre pour les termes simples et composés anglais du domaine de l'informatique. Nous présentons une bibliothèque d'automates et de transducteurs finis pour la reconnaissance des déterminants numéraux cardinaux et ordinaux de l'anglais.<br />L'intérêt de la création de bases lexicales pour les mots composés est vérifié dans deux types d'applications du TALN. Premièrement, nous présentons une méthode d'acquisition de terminologie, basée sur l'emploi de ressources terminologiques initiales. Deuxièmement, nous proposons un algorithme de correction orthographique des mots simples et composés, basé sur la consultation d'un dictionnaire sous format d'automate fini.
310

Scheduling of certifiable mixed-criticality systems / Ordonnancement des systèmes certifiés avec différents niveaux de criticité

Socci, Dario 09 March 2016 (has links)
Les systèmes temps-réels modernes ont tendance à obtenir la criticité mixte, dans le sens où ils intègrent sur une même plateforme de calcul plusieurs applications avec différents niveaux de criticités. D'un côté, cette intégration permet de réduire le coût, le poids et la consommation d'énergie. Ces exigences sont importantes pour des systèmes modernes comme par exemple les drones (UAV). De l'autre, elle conduit à des complications majeures lors de leur conception. Ces systèmes doivent être certifiés en prenant en compte ces différents niveaux de criticités. L'ordonnancement temps réel des systèmes avec différents niveaux de criticités est connu comme étant l’un des plus grand défi dans le domaine. Les techniques traditionnelles nécessitent une isolation complète entre les niveaux de criticité ou bien une certification globale au plus haut niveau. Une telle solution conduit à un gaspillage des ressources, et à la perte de l’avantage de cette intégration. Ce problème a suscité une nouvelle vague de recherche dans la communauté du temps réel, et de nombreuses solutions ont été proposées. Parmi elles, l'une des méthodes la plus utilisée pour ordonnancer de tels systèmes est celle d'Audsley. Malheureusement, elle a un certain nombre de limitations, dont nous parlerons dans cette thèse. Ces limitations sont encore beaucoup plus accentuées dans le cas de l'ordonnancement multiprocesseur. Dans ce cas précis, l'ordonnancement basé sur la priorité perd des propriétés importantes. C’est la raison pour laquelle, les algorithmes d'ordonnancement avec différents niveaux de criticités pour des architectures multiprocesseurs ne sont que très peu étudiés et ceux qu’on trouve dans la littérature sont généralement construits sur des hypothèses restrictives. Cela est particulièrement problématique car les systèmes industriels temps réel cherchent à migrer vers plates-formes multi-cœurs. Dans ce travail nous proposons une approche différente pour résoudre ces problèmes. / Modern real-time systems tend to be mixed-critical, in the sense that they integrate on the same computational platform applications at different levels of criticality. Integration gives the advantages of reduced cost, weight and power consumption, which can be crucial for modern applications like Unmanned Aerial Vehicles (UAVs). On the other hand, this leads to major complications in system design. Moreover, such systems are subject to certification, and different criticality levels needs to be certified at different level of assurance. Among other aspects, the real-time scheduling of certifiable mixed critical systems has been recognized to be a challenging problem. Traditional techniques require complete isolation between criticality levels or global certification to the highest level of assurance, which leads to resource waste, thus loosing the advantage of integration. This led to a novel wave of research in the real-time community, and many solutions were proposed. Among those, one of the most popular methods used to schedule such systems is Audsley approach. However this method has some limitations, which we discuss in this thesis. These limitations are more pronounced in the case of multiprocessor scheduling. In this case priority-based scheduling looses some important properties. For this reason scheduling algorithms for multiprocessor mixed-critical systems are not as numerous in literature as the single processor ones, and usually are built on restrictive assumptions. This is particularly problematic since industrial real-time systems strive to migrate from single-core to multi-core and many-core platforms. Therefore we motivate and study a different approach that can overcome these problems.A restriction of practical usability of many mixed-critical and multiprocessor scheduling algorithms is assumption that jobs are independent. In reality they often have precedence constraints. In the thesis we show the mixed-critical variant of the problem formulation and extend the system load metrics to the case of precedence-constraint task graphs. We also show that our proposed methodology and scheduling algorithm MCPI can be extended to the case of dependent jobs without major modification and showing similar performance with respect to the independent jobs case. Another topic we treated in this thesis is time-triggered scheduling. This class of schedulers is important because they considerably reduce the uncertainty of job execution intervals thus simplifying the safety-critical system certification. They also simplify any auxiliary timing-based analyses that may be required to validate important extra-functional properties in embedded systems, such as interference on shared buses and caches, peak power dissipation, electromagnetic interference etc..The trivial method of obtaining a time-triggered schedule is simulation of the worst-case scenario in event-triggered algorithm. However, when applied directly, this method is not efficient for mixed-critical systems, as instead of one worst-case scenario they have multiple corner-case scenarios. For this reason, it was proposed in the literature to treat all scenarios into just a few tables, one per criticality mode. We call this scheduling approach Single Time Table per Mode (STTM) and propose a contribution in this context. In fact we introduce a method that transforms practically any scheduling algorithm into an STTM one. It works optimally on single core and shows good experimental results for multi-cores.Finally we studied the problem of the practical realization of mixed critical systems. Our effort in this direction is a design flow that we propose for multicore mixed critical systems. In this design flow, as the model of computation we propose a network of deterministic multi-periodic synchronous processes. Our approach is demonstrated using a publicly available toolset, an industrial application use case and a multi-core platform.

Page generated in 0.0495 seconds