• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 288
  • 83
  • 22
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 420
  • 169
  • 78
  • 62
  • 57
  • 50
  • 36
  • 32
  • 32
  • 30
  • 29
  • 28
  • 28
  • 28
  • 25
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Formes de socialisation dans la conception automobile. Le cas de Renault

Boboc, Anca 01 February 2002 (has links) (PDF)
L'objectif de cette thèse est de mieux comprendre la dynamique des connaissances, qui devient un enjeu stratégique majeur dans la construction automobile d'aujourd'hui où le produit est particulièrement complexe.<br />Cette thèse s'appuie sur trois ans de recherche de terrain chez Renault, au sein des groupes projet en charge soit du développement du véhicule avant sa commercialisation, soit des évolutions enregistrées par celui-ci après sa commercialisation.<br />Pour analyser cette dynamique des connaissances dans l'organisation et pour éclairer le processus de conception, en faisant le lien entre ses dimensions individuelles et collectives, nous proposons dans cette thèse un détour par les formes de socialisation que nous entendons comme des modes d'action réciproque.<br />La modélisation que nous avons construite met en évidence l'existence de trois formes de socialisation - les formes cadrées, les formes moyennement cadrées et les formes non cadrées - en fonction du degré d'intensité de la socialisation entre les acteurs. <br />Ces formes de socialisation rendent compte de catégories différentes d'interactions qui apparaissent dans des temps et des espaces différents, ainsi que dans des communautés d'acteurs différentes.<br />Les formes de socialisation nous permettent de parler autant de la coordination et de la coopération que de l'apprentissage. Si nous les regardons par le prisme de l'apprentissage engendré par les interactions entre les acteurs, ces formes de socialisation nous apparaissent comme des formes d'apprentissage. Vues de cette manière, les formes d'apprentissage permettent de mettre en évidence la déviation de la trajectoire du processus d'apprentissage induite par le pouvoir ou par l'arbitrage.<br />Ces trois formes de socialisation sont interdépendantes et " s'alimentent " réciproquement : chacune d'elles a des limites qui induisent des dysfonctionnements palliés par les deux autres formes.<br />La manière dont ces trois formes de socialisation s'articulent est essentielle pour comprendre la dynamique des connaissances dans l'organisation, et, par là, les différents problèmes posés aux concepteurs ainsi que les solutions possibles de sortie de l'impasse.<br />La compréhension de la manière dont ces formes se maintiennent ouvre des voies nouvelles pour la gestion des connaissances dans l'entreprise.
222

Détection de mots clés dans un flux de parole

Ben Ayed, Yassine 23 December 2003 (has links) (PDF)
La reconnaissance automatique de la parole suscite actuellement un grand intérêt. En particulier, la détection de mots clés qui constitue une branche importante de l'interaction homme-machine vu le besoin de communiquer avec nos machines d'une façon naturelle et directe en utilisant la parole spontanée. Cette technique consiste à détecter dans une phrase prononcée, les mots clés caractérisant l'application et de rejeter les mots hors-vocabulaire ainsi que les hésitations, les faux départs etc.<br />Le travail que nous présentons dans ce manuscrit s'inscrit dans le cadre de la détection de mots clés dans un flux de parole. Tout d'abord, nous proposons de nouveaux modèles ``poubelles'' fondés sur la modélisation des mots hors-vocabulaire. Puis nous introduisons la reconnaissance à base de boucle de phonèmes, dans laquelle nous appliquons différentes fonctions de récompense favorisant la reconnaissance des mots clés.<br />Ensuite nous proposons l'utilisation des mesures de confiance afin de pouvoir prendre la décision de rejeter ou d'accepter un mot clé hypothèse. Les différentes mesures de confiance proposées sont basées sur la probabilité d'observation acoustique locale. En premier lieu, nous utilisons les moyennes arithmétique, géométrique et harmonique comme mesures de confiance pour chaque mot clé. En second lieu, nous proposons de calculer la mesure de confiance en se basant sur la méthode à base de boucle de phonèmes. <br />Enfin nous présentons le problème de détection comme un problème de classification où chaque mot clé peut appartenir à deux classes différentes, à savoir ``correct'' et ``incorrect''. Cette classification est réalisée en utilisant des Support Vector Machines (SVM) qui constituent une nouvelle technique d'apprentissage statistique. Chaque mot clé reconnu est représenté par un vecteur caractéristique qui constitue l'entrée du classifieur SVM. Pour déterminer ce vecteur, nous utilisons la probabilité d'observation acoustique locale et nous introduisons ensuite la durée de chaque état. Afin d'améliorer les performances, nous proposons des approches hybrides combinant les modèles poubelles avec mesure de confiance et mesure de confiance avec SVM.<br />Pour tester les performances de l'ensemble de ces modèles nous utilisons la base de données française SPEECHDAT. L'évaluation de tous les résultats a été réalisée en se basant sur les courbes ROC et les courbes rappel/précision. Les meilleurs résultats ont été obtenus par les méthodes basées sur l'utilisation des SVM. Les méthodes hybrides nous ont permis aussi de réaliser de bonnes performances.
223

Optimisation sans dérivées sous contraintes : deux applications industrielles en ingénierie de réservoir et en calibration des moteurs

Langouët, Hoël 28 June 2011 (has links) (PDF)
L'optimisation intervient dans de nombreuses applications IFPEN, notamment dans l'estimation de paramètres de modèles numériques à partir de données en géosciences ou en calibration des moteurs. Dans ces applications, on cherche à minimiser une fonction complexe, coûteuse à estimer, et dont les dérivées ne sont pas toujours disponibles. A ces difficultés s'ajoutent la prise en compte de contraintes non linéaires et parfois l'aspect multi-objectifs. Au cours de cette thèse, nous avons développé la méthode SQA (Sequential Quadradic Approximation), une extension de la méthode d'optimisation sans dérivées de M.J.D. Powell pour la prise en compte de contraintes à dérivées connues ou non. Cette méthode est basée sur la résolution de problèmes d'optimisation simplifiés basés sur des modèles quadratiques interpolant la fonction et les contraintes sans dérivées, construits à partir d'un nombre limité d'évaluations de celles-ci. Si la résolution de ce sous-problème ne permet pas une progression pour l'optimisation originale, de nouvelles simulations sont réalisées pour tenter d'améliorer les modèles. Les résultats de SQA sur différents benchmarks montrent son efficacité pour l'optimisation sans dérivées sous contraintes. Enfin, SQA a été appliqué avec succès à deux applications industrielles en ingénierie de réservoir et en calibration des moteurs. Une autre problématique majeure en optimisation étudiée dans cette thèse est la minimisation multi-objectifs sous contraintes. La méthode évolutionnaire Multi-Objective Covariance Matrix Adaptation, adaptée à la prise en compte des contraintes, s'est révélée très performante dans l'obtention de compromis pour la calibration des moteurs.
224

Détection et localisation tridimensionnelle par stéréovision d'objets en mouvement dans des environnements complexes : application aux passages à niveau

Fakhfakh, Nizar 14 June 2011 (has links) (PDF)
La sécurité des personnes et des équipements est un élément capital dans le domaine des transports routiers et ferroviaires. Depuis quelques années, les Passages à Niveau (PN) ont fait l'objet de davantage d'attention afin d'accroître la sécurité des usagers sur cette portion route/rail considérée comme dangereuse. Nous proposons dans cette thèse un système de vision stéréoscopique pour la détection automatique des situations dangereuses. Un tel système permet la détection et la localisation d'obstacles sur ou autour du PN. Le système de vision proposé est composé de deux caméras supervisant la zone de croisement. Nous avons développé des algorithmes permettant à la fois la détection d'objets, tels que des piétons ou des véhicules, et la localisation 3D de ces derniers. L'algorithme de détection d'obstacles se base sur l'Analyse en Composantes Indépendantes et la propagation de croyance spatio-temporelle. L'algorithme de localisation tridimensionnelle exploite les avantages des méthodes locales et globales, et est composé de trois étapes : la première consiste à estimer une carte de disparité à partir d'une fonction de vraisemblance basée sur les méthodes locales. La deuxième étape permet d'identifier les pixels bien mis en correspondance ayant des mesures de confiances élevées. Ce sous-ensemble de pixels est le point de départ de la troisième étape qui consiste à ré-estimer les disparités du reste des pixels par propagation de croyance sélective. Le mouvement est introduit comme une contrainte dans l'algorithme de localisation 3D permettant l'amélioration de la précision de localisation et l'accélération du temps de traitement.
225

Reconstruction de muons cosmiques en collision et recherche de gluinos se désintégrant en stop-top dans l'expérience CMS au LHC

Tschudi, Yohann 26 September 2011 (has links) (PDF)
L'expérience CMS (Compact Muon Solenoid), construite sur l'anneau du LHC (Large Hadron Collider), enregistre des données provenant des collisions proton-proton depuis 2 ans. L'alignement entre toutes les couches du trajectographe, sous-détecteur de CMS permettant la reconstruction et la mesure de l'impulstion des particules chargées, est effectué à l'aide de traces de particules créées lors de la collision et des traces créées par le passage de muons d'origine cosmique à travers ce détecteur. La première partie de ce livre sera dédiée à la reconstruction des traces de ces muons lors des collisions. Une nouvelle méthode, appelée reconstruction cosmique régionale, a été développée et mise en place. L'efficacité de 69% et le taux de faux de l'ordre de 1% permettent l'utilisation de ces traces pour l'alignement. La deuxième partie, portant sur l'analyse des données de collision, s'intéressera à la recherche de particules prédites par un modèle d'extension du Modèle Standard, la Supersymétrie, dans un scénario particulier, le scénario du Stop Léger. Dans le cas d'un fort mélange dans la troisième génération de squarks, le stop, partenaire supersymétrique du quark top, peut être léger. Dans l'analyse effectuée au cours de cette thèse, nous nous sommes intéressés au cas au mstop < mtop. Dans le MSSM avec conservation de la R-parité, le gluino serait formé par paire et se désintégrerait en un squark stop et un quark top. Le stop se désintégrerait quant-à-lui en un quark c et un neutralino, particule supersymétrique la plus légère du modèle, stable et interagissant faiblement. Aucun excès par rapport aux prédictions du Modèle Standard n'a été relevé en utilisant les 40pb-1 de données enregistrées par CMS en 2010. Les limites obtenues à 95% de niveau de confiance permettent d'exclure des masses de stop jusqu'à 175 GeV pour des masses de gluinos allant jusqu'à 350 GeV et des faibles différences de masses entre le stop et le neutralino.
226

Une méthode de région de confiance avec ensemble actif pour l'optimisation non linéaire sans dérivées avec contraintes de bornes appliquée à des problèmes aérodynamiques bruités.

Troltzsch, Anke 07 June 2011 (has links) (PDF)
L'optimisation sans dérivées (OSD) a connu un regain d'intérêt ces dernières années, principalement motivée par le besoin croissant de résoudre les problèmes d'optimisation définis par des fonctions dont les valeurs sont calculées par simulation (par exemple, la conception technique, la restauration d'images médicales ou de nappes phréatiques). Ces dernières années, un certain nombre de méthodes d'optimisation sans dérivée ont été développées et en particulier des méthodes fondées sur un modèle de région de confiance se sont avérées obtenir de bons résultats. Dans cette thèse, nous présentons un nouvel algorithme de région de confiance, basé sur l'interpolation, qui se montre efficace et globalement convergent (en ce sens que sa convergence vers un point stationnaire est garantie depuis tout point de départ arbitraire). Le nouvel algorithme repose sur la technique d'auto-correction de la géométrie proposé par Scheinberg and Toint (2010). Dans leur théorie, ils ont fait avancer la compréhension du rôle de la géométrie dans les méthodes d'OSD à base de modèles. Dans notre travail, nous avons pu améliorer considérablement l'efficacité de leur méthode, tout en maintenant ses bonnes propriétés de convergence. De plus, nous examinons l'influence de différents types de modèles d'interpolation sur les performances du nouvel algorithme. Nous avons en outre étendu cette méthode pour prendre en compte les contraintes de borne par l'application d'une stratégie d'activation. Considérer une méthode avec ensemble actif pour l'optimisation basée sur des modèles d'interpolation donne la possibilité d'économiser une quantité importante d'évaluations de fonctions. Il permet de maintenir les ensembles d'interpolation plus petits tout en poursuivant l'optimisation dans des sous-espaces de dimension inférieure. L'algorithme résultant montre un comportement numérique très compétitif. Nous présentons des résultats sur un ensemble de problèmes-tests issu de la collection CUTEr et comparons notre méthode à des algorithmes de référence appartenant à différentes classes de méthodes d'OSD. Pour réaliser des expériences numériques qui intègrent le bruit, nous créons un ensemble de cas-tests bruités en ajoutant des perturbations à l'ensemble des problèmes sans bruit. Le choix des problèmes bruités a été guidé par le désir d'imiter les problèmes d'optimisation basés sur la simulation. Enfin, nous présentons des résultats sur une application réelle d'un problème de conception de forme d'une aile fourni par Airbus.
227

Contre-mesures géométriques aux attaques exploitant les canaux cachés

Guilley, Sylvain 10 January 2007 (has links) (PDF)
Ce travail de thèse concerne la sécurisation des circuits électroniques contre les attaques (dites SCA) qui visent leur implémentation. Les algorithmes cryptographiques ont été traditionnellement étudiés pour résister aux attaques théoriques. Néanmoins, dès lors que ces algorithmes sont mis en oeuvre sur des dispositifs concrets, de nouvelles attaques deviennent possibles. Effectivement, de l'information peut être extraite passivement (par observation). Cette information complémentaire, communément appelée "canal caché", apporte un pouvoir supplémentaire aux attaquants. Les canaux cachés les plus populaires sont la consommation électrique et le rayonnement électromagnétique. Nous montrons tout d'abord que les attaques sur les canaux cachés sont structurelles, c'est-à-dire inhérentes au traitement de l'information. Il se trouve par ailleurs que les algorithmes cryptographiques sont spécialement sensibles aux SCA, à cause des propriétés constitutives des fonctions booléennes utilisées. Le talon d'Achille principal est l'architecture RTL de l'opérateur cryptographique. Effectivement, les transferts de registres rendent possible une attaque dite en distance de Hamming. Nous continuons en recherchant des moyens permettant de ne fuir pratiquement aucune information exploitable par un attaquant. Des portes logiques sécurisées sont conçues de sorte à minimiser les violations de symétrie. Une stratégie de routage équilibré obéi aux mêmes critères. La conservation de la symétrie est traitée avec un soin tout particulier, aboutissant à la méthode générique de "backend duplication".
228

LE FINANCEMENT BANCAIRE DES CRÉATEURS DE TRÈS PETITES ENTREPRISES

Stéphane, Foliard 25 November 2008 (has links) (PDF)
La recherche de ressources financières, notamment auprès des banques, est souvent problématique pour les porteurs de projet de création d'une entreprise de taille TPE sans expérience. Bien que les banques soient de plus en plus équipées d'outils informatisés d'aide à la décision, la première étape de l'attribution d'un prêt est l'entretien avec un conseiller financier qui va servir de filtre. Après avoir spécifié le concept de TPE et rattaché les démarches de création et de reprise au champ de l'entrepreneuriat, l'auteur de ce travail propose une modélisation intersubjectiviste de cet entretien en mettant en évidence les éléments déterminant l'envie du conseiller financier de concrétiser la demande du créateur. Ce modèle met en évidence trois catégories de phénomènes influant, à savoir le contexte général de la relation et plus particulièrement la pression de la banque sur le conseiller, des éléments perçus par le conseiller et projetés dans une situation professionnelle attendue et, enfin, des éléments constitutifs de la confiance entre les parties sans laquelle rien ne se fera. L'auteur soutient que l'envie du conseiller se construit sur des informations « soft », informations privatives de nature qualitative détaillées dans ce développement. Ces résultats ont été obtenus à partir de propositions nées de l'expérience professionnelle de l'auteur, par une double enquête de terrain menée sur le roannais auprès de dix-sept conseillers financiers. Ils sont ensuite éclairés par la littérature relative aux conventions, aux parties prenantes et aux théories de la confiance
229

Ressources numériques à l'Ecole : vers un glissement de la prérogative politique chez les acteurs de l'éducation

Inaudi, Aude 07 November 2008 (has links) (PDF)
Les ressources numériques éducatives, au coeur d'une multitude de discours, deviennent une évidence sociale et politique. Autour d'elles se construit une image prétendument neutre, a- politique qui disqualifie, a priori, toute tentative critique. Ce phénomène relève de l'impensé. Sa conséquence est le glissement de la prérogative politique de l'Etat vers les acteurs qui détiennent les clés du financement et/ou du fonctionnement des ressources numériques. La posture épistémologique retenue, une lecture sémio-politique, s'inscrit dans la complexité. La grille de lecture croise la sémiotique des écrits d'écran avec les symptômes de l'impensé. Le décryptage sémiotique, par le biais de leur organisation et leur énonciation éditoriales, révèle la prégnance dans les discours, de l'évidence technologique et de la confiance, dans un contexte de rationalisation du système éducatif. La recherche effectuée révèle donc un glissement pluriel de la prérogative politique : l'effacement des frontières des compétences propres à chacun des acteurs de l'Education, la territorialisation de la politique éducative nationale, la dispersion des responsabilités concernant la gestion des données personnelles des usagers de l'Ecole, le rôle quasi- prescripteur de certains organismes internationaux en matière de politique éducative.
230

Estimation non-paramétrique et convergence faible des mesures de pauvreté

Seck, Cheikh Tidiane 23 March 2011 (has links) (PDF)
Cette thèse introduit tout d'abord une formule générale qui englobe toutes les mesures de pauvreté uni-dimensionnelles basées sur le revenu. Nous proposons ensuite deux types d'estimateurs non-paramétriques (à noyau et de type "plug-in") pour cet indice général de pauvreté, tout en étudiant leurs propriétés asymptotiques. Notre méthodologie, basée essentiellement sur la théorie moderne du processus empirique indexé des fonctions, offre un cadre global et rigoureux qui permet d'étudier, avec la même approche, le comportement asymptotique de tous les indices de pauvreté encore disponibles jusqu'ici dans la littérature. Nous obtenons la consistance forte uniforme d'une très large classe de mesures de pauvreté incluant presque tous les modèles d'indices proposés par les économistes, décomposables comme non-décomposables. Ce résultat est utilisé pour construire des intervalles de confiance simultanés, de niveau asymptotiquement optimal (100%). Un théorème central limite uniforme fonctionnel est également établi pour cette large classe d'indicateurs de pauvreté. Comme conséquence, des procédures d'inférence robustes, basées sur le noyau de covariance et utilisant un test de Wald, sont développées afin de comparer de façon non-ambiguë la pauvreté entre deux populations différentes.

Page generated in 0.0482 seconds