• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 516
  • 143
  • 83
  • 5
  • 3
  • 1
  • 1
  • Tagged with
  • 763
  • 180
  • 168
  • 154
  • 110
  • 76
  • 75
  • 69
  • 67
  • 64
  • 64
  • 62
  • 62
  • 60
  • 59
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Analyse de la qualité des signatures manuscrites en-ligne par la mesure d'entropie / Quality analysis of online signatures based on entropy measure

Houmani, Nesma 13 January 2011 (has links)
Cette thèse s'inscrit dans le contexte de la vérification d'identité par la signature manuscrite en-ligne. Notre travail concerne plus particulièrement la recherche de nouvelles mesures qui permettent de quantifier la qualité des signatures en-ligne et d'établir des critères automatiques de fiabilité des systèmes de vérification. Nous avons proposé trois mesures de qualité faisant intervenir le concept d’entropie. Nous avons proposé une mesure de qualité au niveau de chaque personne, appelée «Entropie personnelle», calculée sur un ensemble de signatures authentiques d’une personne. L’originalité de l’approche réside dans le fait que l’entropie de la signature est calculée en estimant les densités de probabilité localement, sur des portions, par le biais d’un Modèle de Markov Caché. Nous montrons que notre mesure englobe les critères habituels utilisés dans la littérature pour quantifier la qualité d’une signature, à savoir: la complexité, la variabilité et la lisibilité. Aussi, cette mesure permet de générer, par classification non supervisée, des catégories de personnes, à la fois en termes de variabilité de la signature et de complexité du tracé. En confrontant cette mesure aux performances de systèmes de vérification usuels sur chaque catégorie de personnes, nous avons trouvé que les performances se dégradent de manière significative (d’un facteur 2 au minimum) entre les personnes de la catégorie «haute Entropie» (signatures très variables et peu complexes) et celles de la catégorie «basse Entropie» (signatures les plus stables et les plus complexes). Nous avons ensuite proposé une mesure de qualité basée sur l’entropie relative (distance de Kullback-Leibler), dénommée «Entropie Relative Personnelle» permettant de quantifier la vulnérabilité d’une personne aux attaques (bonnes imitations). Il s’agit là d’un concept original, très peu étudié dans la littérature. La vulnérabilité associée à chaque personne est calculée comme étant la distance de Kullback-Leibler entre les distributions de probabilité locales estimées sur les signatures authentiques de la personne et celles estimées sur les imitations qui lui sont associées. Nous utilisons pour cela deux Modèles de Markov Cachés, l'un est appris sur les signatures authentiques de la personne et l'autre sur les imitations associées à cette personne. Plus la distance de Kullback-Leibler est faible, plus la personne est considérée comme vulnérable aux attaques. Cette mesure est plus appropriée à l’analyse des systèmes biométriques car elle englobe en plus des trois critères habituels de la littérature, la vulnérabilité aux imitations. Enfin, nous avons proposé une mesure de qualité pour les signatures imitées, ce qui est totalement nouveau dans la littérature. Cette mesure de qualité est une extension de l’Entropie Personnelle adaptée au contexte des imitations: nous avons exploité l’information statistique de la personne cible pour mesurer combien la signature imitée réalisée par un imposteur va coller à la fonction de densité de probabilité associée à la personne cible. Nous avons ainsi défini la mesure de qualité des imitations comme étant la dissimilarité existant entre l'entropie associée à la personne à imiter et celle associée à l'imitation. Elle permet lors de l’évaluation des systèmes de vérification de quantifier la qualité des imitations, et ainsi d’apporter une information vis-à-vis de la résistance des systèmes aux attaques. Nous avons aussi montré l’intérêt de notre mesure d’Entropie Personnelle pour améliorer les performances des systèmes de vérification dans des applications réelles. Nous avons montré que la mesure d’Entropie peut être utilisée pour : améliorer la procédure d’enregistrement, quantifier la dégradation de la qualité des signatures due au changement de plateforme, sélectionner les meilleures signatures de référence, identifier les signatures aberrantes, et quantifier la pertinence de certains paramètres pour diminuer la variabilité temporelle. / This thesis is focused on the quality assessment of online signatures and its application to online signature verification systems. Our work aims at introducing new quality measures quantifying the quality of online signatures and thus establishing automatic reliability criteria for verification systems. We proposed three quality measures involving the concept of entropy, widely used in Information Theory. We proposed a novel quality measure per person, called "Personal Entropy" calculated on a set of genuine signatures of such a person. The originality of the approach lies in the fact that the entropy of the genuine signature is computed locally, on portions of such a signature, based on local density estimation by a Hidden Markov Model. We show that our new measure includes the usual criteria of the literature, namely: signature complexity, signature variability and signature legibility. Moreover, this measure allows generating, by an unsupervised classification, 3 coherent writer categories in terms of signature variability and complexity. Confronting this measure to the performance of two widely used verification systems (HMM, DTW) on each Entropy-based category, we show that the performance degrade significantly (by a factor 2 at least) between persons of "high Entropy-based category", containing the most variable and the least complex signatures and those of "low Entropy-based category", containing the most stable and the most complex signatures. We then proposed a novel quality measure based on the concept of relative entropy (also called Kullback-Leibler distance), denoted « Personal Relative Entropy » for quantifying person's vulnerability to attacks (good forgeries). This is an original concept and few studies in the literature are dedicated to this issue. This new measure computes, for a given writer, the Kullback-Leibler distance between the local probability distributions of his/her genuine signatures and those of his/her skilled forgeries: the higher the distance, the better the writer is protected from attacks. We show that such a measure simultaneously incorporates in a single quantity the usual criteria proposed in the literature for writer categorization, namely signature complexity, signature variability, as our Personal Entropy, but also the vulnerability criterion to skilled forgeries. This measure is more appropriate to biometric systems, because it makes a good compromise between the resulting improvement of the FAR and the corresponding degradation of FRR. We also proposed a novel quality measure aiming at quantifying the quality of skilled forgeries, which is totally new in the literature. Such a measure is based on the extension of our former Personal Entropy measure to the framework of skilled forgeries: we exploit the statistical information of the target writer for measuring to what extent an impostor’s hand-draw sticks to the target probability density function. In this framework, the quality of a skilled forgery is quantified as the dissimilarity existing between the target writer’s own Personal Entropy and the entropy of the skilled forgery sample. Our experiments show that this measure allows an assessment of the quality of skilled forgeries of the main online signature databases available to the scientific community, and thus provides information about systems’ resistance to attacks. Finally, we also demonstrated the interest of using our Personal Entropy measure for improving performance of online signature verification systems in real applications. We show that Personal Entropy measure can be used to: improve the enrolment process, quantify the quality degradation of signatures due to the change of platforms, select the best reference signatures, identify the outlier signatures, and quantify the relevance of times functions parameters in the context of temporal variability.
242

Формирование социокультурной компетенции в образовательной франкоязычной среде Moodle : на примере обучения студентов-лингвистов / Formation des compétences socioculturelles dans un environnement francophone d’apprentissage Moodle : Le cas de la formation des étudiants-linguistes en Russie / Formation of Sociocultural Competency in learning French-speaking environment Moodle : Case of training of students-linguists in Russia

Degil, Irina 22 June 2017 (has links)
Le développement des technologies d’information et de communication et leur introduction dans le système d’enseignement supérieur en Russie et en France vise à contribuer à l’amélioration de la qualité de la formation universitaire. Les établissements supérieurs français et russes mènent des recherches dans le domaine de l’enseignement en ligne dans toutes les filières. Dans ce contexte, la formation des compétences socioculturelles des étudiants-linguistes dans un environnement francophone d’apprentissage Moodle conduit à la confrontation à des problématiques actuelles et importantes pour les sciences de l’éducation. L’objectif de notre recherche est de faire ressortir et expliquer la spécificité de la formation des compétences socioculturelles dans un environnement Moodle. Cet objectif nous a amené à préciser les composantes des compétences socioculturelles à partir de l’analyse des modèles de ces compétences représentées dans des ouvrages russes et francophones. La nécessité de développer toutes les composantes en même temps et utiliser pleinement le potentiel de l’environnement virtuel ont justifié l’élaboration de l’approche intégrative incluant les idées des chercheurs français dans ce domaine. Pour appliquer l’approche intégrative, nous avons procédé à l’analyse des caractéristiques de l’environnement Moodle en utilisant les paramètres psychodiagnostics élaborés par les pédagogues russes et en liant ces caractéristiques aux composantes des compétences socioculturelles. Après avoir construit le cadre théorique de la recherche, nous avons appliqué la méthodologie de l’expérience pédagogique pour argumenter l’efficacité de la formation des compétences socioculturelles dans un environnement francophone d’apprentissage Moodle. Pour cet objectif, un cours virtuel Portrait socioculturel de la France a été créé, mis en place et introduit dans le parcours de formation des étudiants-linguistes à l’Université d’Etat de Tomsk. Ces résultats obtenus sont importants pour la formation des étudiants surtout dans les conditions de l’éloignement géographique. Outre le cours virtuel dans Moodle, nous avons explicité des conseils pour les étudiants et des recommandations pour les enseignants-tuteurs concernant le travail dans un environnement francophone d’apprentissage. / The development of information and communication technologies and introduction in the system of Higher Education in Russia and in France contribute to the improvement of the quality of university education. Universities in France and Russia conduct researches in the field of online education in all disciplines. In this context, the formation of the sociocultural competency of students-linguists in a French-speaking learning environment Moodle becomes important problematic for education sciences. The objectif of our research is to highlight and explain the specificity of the formation of sociocultural competency in the virtual environment Moodle. This objective has led us to specify the components of the sociocultural competency by analyzing the models of this competency represented in Russian and French research. The necessity to develop all the components at the same time and make full use of the potential of the virtual environment led us to develop the integrative approach based on the ideas of the french researchers in this area. To apply the integrative approach, we did the analysis of the characteristics of the environment Moodle by using psychodiagnostics criteria developed by Russian scientists and by linking these characteristics to the components of the sociocultural competency. We constructed the theoretical framework of research and next we applied it to argue the effectiveness of formation of sociocultural competency in a French-speaking learning environment Moodle. For this aim, a virtual course Portrait socio-cultural of the France was created, developed and introduced in the process of the formation of the students-linguists at the Tomsk State University. In addition to the virtual course in Moodle, we have developed student tips and recommendations for tutors working in a French-speaking learning environment Moodle
243

Entrée à l'université / Ressources en ligne. Eclairages théoriques et actions didactiques dans deux champs de recherche en didactique des mathématiques

Gueudet, Ghislaine 28 November 2008 (has links) (PDF)
Je présente ici la synthèse de recherches en didactique des mathématiques au cours desquelles j'ai étudié deux champs très différents :<br />- l'entrée à l'université, et en particulier les difficultés que pose l'enseignement de l'algèbre linéaire au début de l'université ; <br />- l'emploi de ressources en ligne pour l'apprentissage et l'enseignement des mathématiques à tous les niveaux scolaires, et en particulier de ressources du type « bases d'exercices en ligne ». <br />Dans le premier chapitre, je montre comment différentes perspectives de recherche amènent à s'intéresser à différents types de difficultés des étudiants novices, à identifier diverses causes pour celles-ci, et à suggérer différents moyens d'action didactique à l'entrée dans le supérieur, pour le cas de l'algèbre linéaire en particulier.<br />Le deuxième chapitre porte sur le thème des ressources en ligne. Mes recherches ont concerné plusieurs facettes de ce thème : l'analyse didactique des ressources ; la question des comportements et des apprentissages des élèves ou étudiants travaillant avec de telles ressources ; enfin les conséquences de l'emploi de ces ressources sur les pratiques des enseignants. J'expose en particulier les apports complémentaires d'analyses en termes de contrat didactique et d'approche instrumentale. Pour le professeur, la nécessité d'une prise en compte globale des ressources susceptibles d'intervenir dans son activité professionnelle m'a conduite à prendre part au développement d'une approche théorique spécifique, introduisant la notion de genèse documentaire. <br />Je présente enfin dans un troisième chapitre mes perspectives de recherche, dans lesquelles l'étude des genèses documentaires constitue un axe majeur.
244

Dynamique de microbouchons dans un canal et une bifurcation.

Ody, Cédric 18 December 2007 (has links) (PDF)
La dynamique de bouchons est étudiée expérimentalement dans des microcanaux de section rectangulaire fabriquées selon le procédé de lithographie molle. Les bouchons sont déplacés par de l'air introduit à pression constante et l'écoulement est enregistré par vidéomicroscopie. Deux géométries sont étudiées : le canal droit et la bifurcation en T. Dans le premier cas, on détermine le saut de pression dynamique aux interfaces de bouchons de liquide mouillant ou partiellement mouillant en calculant au préalable la dissipation visqueuse dans le volume des bouchons. Les résultats montrent des similarités avec les études réalisées en tube cylindrique : le saut de pression aux interfaces d'un bouchon de liquide mouillant suit une loi de puissance faisant intervenir le nombre capillaire à la puissance 2/3 tandis qu'en mouillage partiel, cette dépendance est plus complexe notamment en raison d'un seuil de pression lié à l'hystérésis des angles de contact. Le comportement de bouchons de liquide mouillant est ensuite étudié dans une bifurcation en T. Trois cas sont observés : la division, l'éclatement ou encore le blocage du bouchon à l'entrée du T. La pression de déblocage ainsi que le critère éclatement-division sont modélisés et discutés. Ce travail de thèse aboutit donc, pour l'écoulement diphasique considéré, aux lois de transport dans un microcanal droit ainsi qu'à la fonction de transfert à une bifurcation dans le cas du mouillage total. Combinés, ces résultats pourront être utiles à la modélisation du transport de gouttes dans un réseau de microcanaux à section rectangulaire.
245

Calcul sur les grands nombres et VLSI : application au PGCD, au PGCD étendu et à la distance euclidienne

Bouraoui, Rachid 15 January 1993 (has links) (PDF)
Dans le cadre de cette thèse nous avons étudie l'implantation des algorithmes de l'arithmétique en ligne. En particulier, la réalisation de deux circuits destines aux applications exigeant une précision infinie est exposée. En effet, dans de nombreux domaines tels que la génération de nombres aléatoires, cryptographie, calcul formel, arithmétique exacte, réduction de fraction en précision infinie, calcul modulaire, traitement d'images..., les opérateurs classiques manquent d'efficacité. Face a ce type de problèmes, un remède peut être apporte par le calcul en ligne selon lequel les calculs sont faits en introduisant les opérandes en série chiffre a chiffre en notation redondante. Nous obtenons ainsi un haut degré de parallélisme et une précision variable linéairement. Le premier circuit présenté implante un algorithme de pgcd nomme Euclide offrant, d'après les simulations, le meilleur compromis cout matériel/performance. Il donne également les coefficients de Bezout. Ce circuit est appelé a résoudre les problèmes lies au temps de calcul du pgcd par les méthodes classiques rencontrées dans beaucoup d'applications. Une deuxième application montre la possibilité de fusionner des opérateurs en ligne afin d'obtenir un opérateur complexe. L'exemple traite dans cette thèse est celui de la distance euclidienne: z=x#2+y#2 utilisée, entre autres, pour la resolution du moindre carre des systèmes linéaires
246

HSURF : un microprocesseur facilement testable pour des applications à haute sûreté de fonctionnement

Jay, Christian 23 June 1986 (has links) (PDF)
Partant d'un jeu d'instructions spécifique à l'application (domaine des automatismes logiques), on propose une architecture permettant d'exécuter ledit jeu d'instructions et disposant de facilités de test en fin de conception et au cours de la vie du circuit. L'observabilité et la contrôlabilité du composant représentent une partie importante de l'étude. Après examen critique de plusieurs méthodes permettant de faciliter le test (en ligne et hors ligne) du circuit, un choix est réalisé afin d'intégrer dans l'architecture de ce dernier les dispositifs nécessaires à la mise en œuvre de certaines d'entre elles
247

Cohérence de copies multiples avec latence de détection d'erreur et test fonctionnel de micro-processeurs

Postigo, Carlos 14 June 1983 (has links) (PDF)
Modification d'algorithmes classiques utilises dans le maintien de la cohérence de copies multiples en vue de prendre en compte une latence de détection de faute. Bref parallèle des algorithmes modifies de Kaneko et Herran et Verjus. Réalisation d'une nouvelle classification de pannes.
248

Caractéristiques de l'écoulement et des précipitations observés durant MAP: une analyse par radar et simulation numérique

Pradier, Stephanie 21 October 2002 (has links) (PDF)
Le massif Alpin est régulièrement soumis à l'automne à des systèmes dépressionnaires amenant un flux d'air méditerranéen chaud et humide sur son versant sud . De par la forme et la topographie du massif, ce phénomène peut conduire localement à des précipitations intenses souvent à l'origine d'inondations éclairs, dommageables pour l'homme. L'un des objectifs de l'expérience internationale MAP (Mesoscale Alpine Program) est l'étude des mécanismes dynamiques et microphysiques de ces précipitations, dans le but d'en améliorer la prévision. La campagne s'est déroulée durant l'automne 1999 et a donné lieu à 17 Périodes d'Observations Intensives (POI).<br />Les travaux de recherche effectués durant cette thèse sont basés sur l'analyse de plusieurs d'entre elles, ceci au moyen de données de radars Doppler sole et aéroportés, et du modèle numérique méso-échelle non-hydrostatique Méso-NH. Ces travaux visent à établir le scénario et les processus fondamentaux qui ont mené à leur occurrence. Différents types d'évènements pluvieux ont été étudiés : 2 cas de précipitations convectives, le premier à fort cumul de pluie dans la région du Lac Majeur (ouest des Alpes, POI 2B), et un autre sur la région du Frioul (est des Alpes, POI 5) ; puis des conditions pour lesquelles les précipitations se sont révélées plus modérées sur la région du Lac Majeur (POIs 4, 8, 9 et 15) permettant d'étudier un autre mécanisme lié au relief ou non : le processus de blocage.<br />Sur ces 6 cas d'étude, le facteur dominant responsable du cumul de pluie au sol est le facteur durée : la persistance des précipitations associée au ralentissement du système dépressionnaire au niveau des Alpes mène aux plus forts cumuls. Ceux-ci ont été enregistrés pour les POIs 2B et 8, soit des évènements convectif et stratiforme respectivement. Dans le cas de la POI 2B, c'est un système quasi-stationnaire d'altitude qui est responsable du ralentissement, alors que pour la POI 8 il s'agit de la nature stable du flux incident sur les flancs alpins, et par la suite de son blocage au niveau du relief. Les POIs 4 et 15, caractérisées également par la stabilité du flux d'alimentation des précipitations, illustrent des acs pour lesquels l'arrivée du front froid associé au système dépressionnaire, et par conséquent d'un flux post-frontal antagoniste au flux d'alimentation, est responsable du déplacement des cellules précipitantes. La POI5 est une situation caractérisant le passage rapide du front froid, et l'évolution d'une ligne de cellules convectives associée.<br />L'effet du relief a été mis en évidence, dans les épisodes pluvieux stratiforme et convectif. Dans tous les cas, ce dernier contribue à renforcer/déclencher les précipitations. Il est responsable de la déviation vers l'ouest des flux incidents stables. L'impact de l'orographie de petite échelle a également été démontré à l'aide de tests numériques, en particulier les irrégularités du relief de l'ordre du kilomètre ont joué un rôle important dans la progression du système précipitant de la POI 5.
249

Etude et Optimisation de Communications à Haut Débit sur Lignes d'Energie : Exploitation de la Combinaison OFDM/CDMA

Crussière, Matthieu 28 November 2005 (has links) (PDF)
Les travaux de recherche présentés dans cette thèse ont pour but l'étude et l'optimisation d'un système de communications à haut-débit sur lignes électriques, mettant en œuvre les techniques combinant l'OFDM et le CDMA. Cette étude s'inscrit dans un contexte d'exploitation de la boucle locale électrique pour l'accès à l'Internet domestique.<br /><br />La première partie du document est consacrée à l'étude des spécifications du système de communications. Un état de l'art sur les communications par courant porteur est tout d'abord proposé, accompagné d'une synthèse sur la structure du réseau des lignes électriques et les caractéristiques du canal de propagation. Les différents choix concernant le système à développer sont ensuite envisagés pour l'obtention de communications multiutilisateurs en liaison point-à-multipoint dans un environnement multicellulaire. La combinaison entre l'OFDM et le CDMA, appelée SS-MC-MA, est retenue et une structure de trame est proposée.<br /><br />La deuxième partie du document est dédiée à l'étude des procédés de synchronisation et d'estimation de canal. Les effets des erreurs de synchronisation sont en premier lieu identifiés et la tolérance du système aux défauts de rythme est spécifiée. La procédure de synchronisation du système est ensuite décrite et des algorithmes conjoints et innovants de synchronisation temporelle fine et d'estimation de canal sont proposés. Deux approches reposant sur une mise en œuvre de ces algorithmes dans le domaine fréquentiel et temporel sont alors comparées. <br /><br />La dernière partie traite, dans le cas de signaux SS-MC-MA, de l'allocation globale des différentes ressources du système, dans les cas mono- et multi-utilisateur avec une connaissance parfaite du canal à l'émission. Le principe des modulations adaptatives appliqué à la DMT est tout d'abord abordé et adapté au contexte de l'étude. En considérant une limitation de la densité spectrale de puissance d'émission, de nouveaux algorithmes d'allocation sont ensuite développés en mode SS-MC-MA. Il est alors démontré que la composante étalement permet une meilleure exploitation des énergies disponibles sur chaque sous-porteuse, et de transmettre alors un débit plus élevé que la DMT ou de rendre la communication plus robuste. Les nombreux résultats obtenus dans diverses configurations montrent que le système SS-MC-MA adaptatif proposé est plus performant que la DMT pour les réseaux CPL.
250

Stéréovision embarquée sur véhicule : de l'auto-calibrage à la détection d'obstacles

Lemonde, Vincent 10 November 2005 (has links) (PDF)
La complexité croissante de l'environnement routier et le souci d'amélioration de la sécurité routière expliquent un nombre important de travaux sur l'aide à la conduite. De nombreux systèmes (ultrasons, laser, radar, ...) ont déjà été mis en oeuvre pour percevoir l'environnement autour d'un véhicule. Tous se heurtent à la diversité des scènes observées, que ce soit en milieu urbain ou routier. Il est donc nécessaire d'exploiter des capteurs qui donnent une information riche pouvant être analysée dans plusieurs fonctions et quelle que soit la configuration. La vision semble tout à fait adéquate ; elle est d'ailleurs une source sensorielle capitale dans la prise de décision chez l'humain. Les méthodes décrites dans cette thèse consistent donc à proposer un système complet et autonome de stéréovision passive pour la détection d'obstacles sur un véhicule, dit intelligent, évoluant en milieu urbain ou routier. La problématique majeure relative à l'exploitation d'un banc de stéréovision sur un robot ou un véhicule concerne la qualité du calibrage qui tend à varier au cours du temps. Un tel système n'est en effet viable que si les paramètres qui décrivent la géométrie du capteur peuvent être correctement estimés, y compris en présence de chocs et vibrations. Nous présentons donc d'abord une méthode de recalibrage en ligne d'un système initialement calibré, consistant en une correction dynamique de ses paramètres. Affranchi des problèmes de calibrage, le deuxième problème abordé est la détection d'obstacles en milieu routier. Les méthodes décrites dans ce document proposent une construction du profil longitudinal de la route afin d'en extraire un modèle d'obstacle tenant compte des variations de pente et du dévers et/ou roulis. Notre approche exploite les données 3D fournies par la stéréo-vision. La dernière application concerne un système de perception pour l'aide au parking; nous présentons une méthode générique de con struction incrémentale d'un modèle 3D de l'espace libre. Cette méthode suppose que le déplacement du véhicule est estimé avec une bonne précision. Le modèle est alors analysé pour détecter et caractériser une place de parking; le but est d'alimenter un planificateur de mouvement permettant la réalisation automatique de la manoeuvre. Toutes les méthodes ont été intégrées dans l'environnement RT-MAPS, et ont été validées soit en ligne sur le démonstrateur du LAAS, soit sur des séquences d'images acquises sur des véhicules.

Page generated in 0.034 seconds