• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6910
  • 2203
  • 1504
  • 11
  • 4
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 10836
  • 10836
  • 3622
  • 2988
  • 2916
  • 1945
  • 1927
  • 1786
  • 1463
  • 1359
  • 1147
  • 1091
  • 1089
  • 1079
  • 1078
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

ID Photograph hashing : a global approach

Smoacà, Andreea 12 December 2011 (has links) (PDF)
Cette thèse traite de la question de l'authenticité des photographies d'identité, partie intégrante des documents nécessaires lors d'un contrôle d'accès. Alors que les moyens de reproduction sophistiqués sont accessibles au grand public, de nouvelles méthodes / techniques doivent empêcher toute falsification / reproduction non autorisée de la photographie d'identité. Cette thèse propose une méthode de hachage pour l'authentification de photographies d'identité, robuste à l'impression-lecture. Ce travail met ainsi l'accent sur les effets de la numérisation au niveau de hachage. L'algorithme mis au point procède à une réduction de dimension, basée sur l'analyse en composantes indépendantes (ICA). Dans la phase d'apprentissage, le sous-espace de projection est obtenu en appliquant l'ICA puis réduit selon une stratégie de sélection entropique originale. Dans l'étape d'extraction, les coefficients obtenus après projection de l'image d'identité sur le sous-espace sont quantifiés et binarisés pour obtenir la valeur de hachage. L'étude révèle les effets du bruit de balayage intervenant lors de la numérisation des photographies d'identité sur les valeurs de hachage et montre que la méthode proposée est robuste à l'attaque d'impression-lecture. L'approche suivie en se focalisant sur le hachage robuste d'une classe restreinte d'images (d'identité) se distingue des approches classiques qui adressent une image quelconque
302

Conception et réalisation de l'unité de décision du système de déclenchement de premier niveau du détecteur LHCb au Large Hadron Collider (LHC)

Laubser, Julien 29 November 2007 (has links) (PDF)
Le détecteur LHCb est l'une des quatre expériences de physique des particules de la nouvelle chaîne d'accélération LHC du CERN. Afin de réduire la quantité de données destinée au stockage, un dispositif de sélection en ligne est mis en place. L'unité de décision au niveau 0 (L0DU) est le système central du premier niveau de déclenchement. LODU est un circuit imprimé 16 couches intégrant des composants de haute technologie de type FGPA et des liaisons optiques à 1,6 Gbit/s. Le traitement est implémenté en utilisant une architecture pipeline synchrone à 40 MHz. L0DU applique un algorithme de physique simple pour calculer sa décision et réduire le flot de données de 40 MHz à 1 MHz pour le prochain niveau de sélection. Le traitement interne se compose d'un traitement partiel des données (PDP) et d'une partie dédiée à la définition de l'algorithme de sélection (TDU). Le TDU est flexible et permet de reconfigurer entièrement les conditions de déclenchement sans re-programmation des FGPA
303

Structuration d'un cluster d'innovation : Application aux projets d'innovation dans une grappe d'entreprises en gérontechnologie,

Zimmer, Benjamin 31 May 2012 (has links) (PDF)
Nous proposons une approche de structuration des activités d'un cluster d'innovation. Nos apports se font à deux niveaux : une aide à la gouvernance et à la structuration des activités, et une méthodologie de sélection et d'accompagnement des projets innovants potentiellement les plus créateurs de valeur de ce cluster. Une application est présentée dans le cadre du développement de la grappe d'entreprises SOLIAGE pour favoriser l'innovation en gérontechnologie. Notre premier apport, d'ordre organisationnel, consiste à structurer le passage d'une phase d'émergence à celle de développement d'une grappe d'entreprises. L'objectif est de permettre à cette organisation participative de se doter d'une vision et de valeurs, d'objectifs, d'une gouvernance, d'un plan d'action qui soient pleinement partagés par ses membres. Ceci est rendu possible par le développement d'une dynamique de coopération et de confiance entre les membres. Ainsi, nous appliquons la méthode PAT-Miroir® qui a permis de structurer l'ensemble des axes d'actions stratégiques du cluster. Notre second apport consiste à structurer et professionnaliser un fond d'innovation finançant et/ou accompagnant des projets les plus créateurs de valeurs dès l'émergence d'une idée, d'un nouveau produit et/ou service. Sur les principes de la méthodologie Radical Innovation Design®, nous avons conçu un système de sélection de projets d'innovation en gérontechnologie, nommé SAPIGE®, qui présente des éléments de preuve suffisants de valeur, d'innovation et de concept. Nous proposons ensuite une logique de financement et/ou d'accompagnement. L'accompagnement vise à renforcer les preuves de valeur, d'innovation et de concept en faisant appel à l'expertise des membres de la grappe d'entreprises.
304

Esquisse virtuelle en conception mécanique

Bascoul, Christophe 28 October 2007 (has links) (PDF)
Nous essayons de montrer comment l'esquisse virtuelle peut être une aide pendant les phases avancées de la conception de systèmes mécaniques. Le titre de ce travail mérite des précisions : Le terme "esquisse" doit être rapproché du terme "disegno" qui est né pendant la Renaissance en Italie. La conception de systèmes mécaniques implique la prise en compte du mouvement des pièces. Ce point est celui qui différencie le plus notre travail des autres recherches sur l'esquisse virtuelle. Les phases avancées de conception sont les phases les plus critiques puisque la quasi totalité du coût du produit y est définie. Aider un concepteur dans son travail, c'est essayer de savoir comment il travaille. Nous avons créé un premier prototype qui permet d'effectuer un croquis à main levée en 3D avec retour d'effort. La dynamique utilisée contenant des limitations ; nous avons développé notre dynamique et notre gestion de collision que nous décrirons, ainsi que leur application dans le deuxième prototype
305

Correlation between magnetic field quality and mechanical components of the Large Hadron Collider main dipoles

Bellesia, B. 15 December 2006 (has links) (PDF)
La production des dipôles supraconducteurs de la machine LHC du CERN s'est terminée en automne 2006. Les aimants fonctionnent à la température cryogénique de 1.9 K et doivent produire un champ magnétique très uniforme permettant de conduire les protons dans la machine. Le champ magnétique a été contrôlé avec beaucoup de rigueur et différentes mesures ont été réalisées pendant les différentes phases de l'assemblage des dipôles. Le but a été la découverte de défauts de production et d'assemblage qui prouvent limiter les performances des aimants. Dans le travail de thèse les effets de la variation de la géométrie des composantes mécaniques comme les câbles supraconducteur, les cales et les colliers de soutien des bobines sur l'uniformité du champ magnétique ont été étudiés. Une méthode pratique pour identifier et corriger les problèmes d'usinage a été développée et utilisée dans la phase de production. La thèse consiste en trois parties principales :<br />-Analyse de la production des principales composantes mécaniques des dipôles et étude de l'influence de la géométrie et des procédures d'assemblage sur la qualité du champ magnétique.<br />-Utilisation pratique des mesures effectuées sur les dipôles dans l'atelier d'assemblage pour résoudre les problèmes de production et comprendre le comportement de la géométrie des bobines pendant les phases d'assemblage.<br />-Etude théorique des composantes aléatoires des harmoniques du champ magnétique pour qualifier la production des dipôles.
306

Conception et réalisation de l'unité de décision du système de déclenchement de premier niveau du détecteur LHCb au LHC

Laubser, J. 29 November 2007 (has links) (PDF)
Le détecteur LHCb est l'une des quatre expériences de physique des particules installées sur la nouvelle chaîne d'accélération LHC (Large Hadron Collider) du CERN à Genève. Afin de réduire la quantité de données destinées au stockage pour les analyses hors ligne, un dispositif de sélection en ligne des collisions intéressantes selon la physique à étudier est mis en place en parallèle de la chaîne d'acquisition des données. Ce dispositif est composé d'un premier niveau (niveau 0) réalisé par un système électronique complexe et d'un second niveau de sélection réalisé par informatique HLT (High Level Trigger). L'unité de décision de niveau 0 (L0DU) est le système central du niveau 0 de déclenchement. L0DU prend la décision d'accepter ou de rejeter la collision pour ce premier niveau à partir d'une fraction d'informations issues des sous-détecteurs les plus rapides (432 bits à 80 MHz). L'unité de décision est un circuit imprimé 16 couches intégrant des composants de haute technologie de type FPGA (Field Programmable Gate Array) en boîtier BGA (Bill Grid Array). Chaque sous-détecteur transmet ses informations via des liaisons optiques haute vitesse fonctionnant à 1,6 Gbit/s. Le traitement est implémenté en utilisant une architecture pipeline synchrone à 40 MHz. L'unité de décision applique un algorithme de physique simple pour calculer sa décision et réduire le flot de données de 40 MHz à 1 MHz pour le niveau de sélection suivant. L'architecture interne se compose principalement d'un traitement partiel des données destiné à l'ajustement des phases d'horloge, à l'alignement en temps et à la préparation des données pour la partie définition des déclenchements (TDU). L'architecture développée permet de configurer et de paramétrer l'algorithme de prise de décision via le système de contrôle général de l'expérience ECS (Experiment Control System) sans avoir à effectuer une reprogrammation des FPGA.
307

Apprentissage de représentations sensori-motrices pour la reconnaissance d'objet en robotique

Do Huu, Nicolas 04 December 2007 (has links) (PDF)
Depuis plusieurs années, la robotique mobile tente de s'extraire de l'espace amniotique des laboratoires de recherche afin d'explorer l'univers imprévisible, voire hostile, de nos lieux de vie, de travail, pour nous servir ou nous divertir. Or, les méthodes classiques de l'intelligence artificielle nécessitent des modèles du robot, de ses actions et de ses perceptions, conçus a priori. Elles sont donc peu adaptées à l'inattendu et à la nouveauté. D'autre part, les systèmes d'apprentissage artificiel, souvent d'inspiration biologique, semblent à présent en voie de fournir les capacités d'adaptation manquantes à ces premières. Nous envisageons dans cette thèse l'apprentissage comme un mécanisme central de l'architecture robotique. Celle-ci peut être représentée sous les traits d'une boucle sensori-motrice où actions et perceptions se rejoignent au sein d'une structure associative. L'apprentissage permet l'acquisition de connaissances nouvelles sur l'environnement mais il intervient également dans la modélisation des actions du robot : en associant des combinaisons de consignes simples sur les moteurs, et en mémorisant les effets de ces actions sur l'environnement ou sur le robot lui-même. Cette forme d'apprentissage a pour support un réseau de neurones permettant un apprentissage en ligne non supervisé. Cette architecture permet également d'exprimer les motivations et les objectifs du robot par le biais d'un second système d'apprentissage en associant une valeur de récompense aux représentations des actions ou des perceptions, par un apprentissage par renforcement. C'est donc l'utilité de chaque action, qui permettra finalement à un processus décisionnel d'avoir lieu.
308

L'APPROCHE BOND GRAPH POUR LA DÉCOUVERTE TECHNOLOGIQUE

Pirvu-Lichiardopol, Anca-Maria 23 October 2007 (has links) (PDF)
Notre étude se concentre sur les techniques qui offrent un support automatique pour l'adaptation et la révision des modèles dynamiques. <br />L'objectif est d'étudier comment l'outil bond graph peut aider à concevoir des systèmes innovants répondant à un cahier des charges exprimé en termes de comportement temporel ou fréquentiel.<br />Construire un modèle revient toujours à faire une abstraction du système initial. Faire une abstraction du système à modéliser signifie trouver les propriétés les plus pertinentes pour la tâche à résoudre. Pour un modélisateur peu expérimenté c'est une étape difficile, car s'il n'a pas fait les bons choix son modèle se montrera faux, étant trop grossier ou trop simple. <br />Avec notre approche, l'intention est d'indiquer une autre capacité de la méthodologie bond graph, celle d'un outil de reconstruction, qui pourrait suggérer des solutions dans le cas d'un dispositif inconsistant avec les spécifications. <br />Comme applications nous décrirons un instrument médical avec un problème fréquentiel observé après la phase de construction et un actionneur électro-hydrostatique dont on n'a pas modélisé un mécanisme physique qui influençait son comportement dynamique. On démontrera que l'outil de reconstruction présenté peut suggérer aux designers peu expérimentés des modifications à apporter aux modèles d'ordres insuffisants.<br />Nous désirons aussi que le système proposé dans cette étude puisse être utilisé comme outil dans la phase de conception des dispositifs technologiques soumis à un cahier des charges. En vue de la conception nous proposons un algorithme qui permet de retrouver les solutions proposées par les ingénieurs et si c'est possible des modèles alternatifs.<br />L'algorithme sera adapté au domaine des matériaux viscoélastiques pour obtenir, à partir des données expérimentales, tous les modèles qui correspondent à un matériau identifié.<br />Nous traiterons aussi le cas d'un nouveau concept pour un capteur de vitesse très sensible aux spécifications fréquentielles. Notre système est capable de proposer plusieurs architectures qui aideront l'ingénieur à choisir celle qui lui convient le mieux vis-à-vis de son cahier des charges.<br />Parce que les bond graphs permettent une représentation unifiée des systèmes physiques, à partir des modèles proposés, nous pouvons choisir des implémentations technologiques dans des domaine physiques différents.
309

Identification rapide de la température dans les structures du génie civil

Nassiopoulos, Alexandre 28 January 2008 (has links) (PDF)
Le contrôle de santé des structures par méthodes vibratoires se heurte à l'influence prédominante des effets thermiques et suscite le besoin de méthodes d'assimilation thermique en temps réel pour éliminer ces effets. On propose des algorithmes qui permettent de reconstituer, à un instant donné, le champ de température dans une structure tridimensionnelle à partir de mesures ponctuelles enregistrées sur un intervalle de temps précédant cet instant. La démarche adoptée est celle de la méthode adjointe tirée de la théorie du contrôle optimal : on résout un problème de minimisation au sens des moindres carrés d'une fonction de coût mesurant l'écart entre les données et le champ de température reconstruit. La minimisation dans un espace de type H1 lève la difficulté habituelle de la méthode adjointe à la fin de la fenêtre d'observation, ce qui permet la reconstruction précise de la température à l'instant courant. La définition des valeurs ponctuelles du champ de température impose le choix d'espaces de contrôle de régularité importante. Pour pouvoir utiliser des méthodes usuelles de discrétisation malgré un second membre formé de masses de Dirac, l'état adjoint est défini par des techniques spécifiques fondées sur la transposition. Le formalisme dual adopté conduit à poser le problème dans un espace essentiellement unidimensionnel. En réduisant la quantité de calculs en ligne, au prix d'une série de précalculs, il donne lieu à des algorithmes d'assimilation en temps réel applicables à des structures tridimensionnelles de géométrie complexe. La robustesse des méthodes par rapport aux erreurs de modélisation et au bruit de mesure est évaluée numériquement et validée expérimentalement.
310

Optimisation de la chaîne logistique dans l'industrie de process. Méthodes et application à l'industrie du verre plat

Miegeville, Nicolas 21 September 2005 (has links) (PDF)
L'importance croissante que le client accorde à la manière dont une entreprise<br />satisfait sa demande bouleverse les fondements des organisations anciennement pensées sous l'angle de la production. Phénomène tout à fait perceptible dans un grand<br />groupe industriel comme Saint-Gobain, à forte culture ingénieur, cette prise de<br />conscience donne un nouvel élan aux métiers transversaux focalisés à la fois sur<br />l'optimisation du schéma industriel et de la chaîne logistique. Cette thèse est une<br />illustration de cette évolution : l'intérêt porté aux problèmes d'optimisation des systèmes industriels et logistiques est relativement récent à Saint-Gobain Recherche.<br />Nous nous sommes intéressés dans nos travaux à différents problèmes industriels<br />complémentaires rencontrés chez Saint-Gobain Glass, leader de la production de<br />verre plat en Europe. Nous avons apporté des solutions mettant en lumière l'interdépendance de différentes décisions à des problèmes industriels complexes, avec un<br />souci constant de produire des outils d'aide à la décision utiles et appréciés.<br />Après un avant-propos rappelant le sens de notre démarche, nous découvrirons<br />dans le chapitre 1 le contexte industriel qui a motivé notre recherche. Nous présentons<br />les métiers du groupe - produire, transformer et distribuer du verre plat - et les<br />différents niveaux de décision que nous avons décidé d'aborder. Les chapitres suivants<br />présentent les problèmes d'optimisation que nous avons identifiés et qui nous sont<br />apparus comme clés.<br />Nous abordons dans le chapitre 2 un modèle permettant de déterminer les dimensions<br />des produits standards. L'intégration verticale du groupe permet l'étude<br />du meilleur compromis entre les chutes de verre tout au long de la chaîne logistique<br />et le nombre de références à gérer. La suite de la thèse tend à aboutir à une modélisation complète du schéma industriel et logistique et fait l'objet du chapitre 6. Pour cela, nous traitons les questions de localisation d'installations logistiques (chapitre 3) et de modélisation des processus de production : le chapitre 4 présente notre modèle<br />et l'illustre avec la production de verre plat, tandis que le chapitre 5 présente un<br />travail complémentaire permettant de l'appliquer aux lignes de transformation. Finalement, nous intégrons dans le chapitre 6 tous ces travaux dans un modèle linéaire<br />en nombres entiers.<br />Fruit d'une véritable collaboration entre chercheurs et industriels, ce travail présente<br />un modèle générique déterministe d'optimisation de la chaîne logistique appliqué avec succès à l'industrie du verre. De nombreuses perspectives dignes d'intérêt<br />sont imaginables, autant théoriques que pratiques.

Page generated in 1.0782 seconds