• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 413
  • 135
  • 59
  • 5
  • 3
  • 3
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 636
  • 230
  • 143
  • 135
  • 69
  • 64
  • 60
  • 53
  • 53
  • 53
  • 48
  • 45
  • 42
  • 38
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

L'action de tir à mi-distance en basket-ball : une approche technologique

Muguet,, Jean-Pierre 15 December 2009 (has links) (PDF)
Cette étude d'une action particulière du basket-ball a été conduite afin d'approfondir les conditions d'élaboration et de fonctionnement d'une démarche technique. Le sujet qui sert de support à cette exploration, le tir à mi-distance, a été choisi à la fois à cause de l'impossibilité de poursuivre un tel objectif en une seule étude pour l'ensemble du jeu, et parce qu'il en est une des actions typiques et néanmoins problématique dans le monde de l'intervention. La nécessité de différer l'opérationnalisation au profit d'un effort pour mieux comprendre la singularité de la technique corporelle étudiée est affirmée. Cet effort relève de la description, par quoi procède la technique, avant d'être un processus de transmission. Il caractérise en partie l'approche technologique. Des images numérisées de séquences de jeu de haut niveau féminin, auquel il est reconnu un statut de pratique de référence très pertinent pour la formation, ont servi de terrain d'étude. Un cadre théorique a été construit à partir du mot action dont les composantes relatives au contexte et au joueur ont été déclinées avec des savoirs et des connaissances scientifiques diverses utilisées comme " outils ". Il a été conçu pour décrire la structure de quelques actions singulières de tirs en matchs. Il a permis d'affiner l'observation en différé et de conduire un entretien avec une joueuse portant sur les mêmes séquences. Ces deux études ont permis de compléter ou de corriger le discours technique en usage, notamment de la littérature spécialisée, dont l'analyse montre qu'il tend à rester cantonné dans des descriptions formelles de gestes. La thèse selon laquelle le tir à mi-distance doit être envisagé comme une action spécifique, distincte des actions de jeu et des autres actions de tirs, se trouve ici confortée. L'ensemble ouvre des perspectives pour la didactique, aussi bien pour la performance que pour l'éducation physique.
312

Reconstruction de muons cosmiques en collision et recherche de gluinos se désintégrant en stop-top dans l'expérience CMS au LHC

Tschudi, Yohann 26 September 2011 (has links) (PDF)
L'expérience CMS (Compact Muon Solenoid), construite sur l'anneau du LHC (Large Hadron Collider), enregistre des données provenant des collisions proton-proton depuis 2 ans. L'alignement entre toutes les couches du trajectographe, sous-détecteur de CMS permettant la reconstruction et la mesure de l'impulstion des particules chargées, est effectué à l'aide de traces de particules créées lors de la collision et des traces créées par le passage de muons d'origine cosmique à travers ce détecteur. La première partie de ce livre sera dédiée à la reconstruction des traces de ces muons lors des collisions. Une nouvelle méthode, appelée reconstruction cosmique régionale, a été développée et mise en place. L'efficacité de 69% et le taux de faux de l'ordre de 1% permettent l'utilisation de ces traces pour l'alignement. La deuxième partie, portant sur l'analyse des données de collision, s'intéressera à la recherche de particules prédites par un modèle d'extension du Modèle Standard, la Supersymétrie, dans un scénario particulier, le scénario du Stop Léger. Dans le cas d'un fort mélange dans la troisième génération de squarks, le stop, partenaire supersymétrique du quark top, peut être léger. Dans l'analyse effectuée au cours de cette thèse, nous nous sommes intéressés au cas au mstop < mtop. Dans le MSSM avec conservation de la R-parité, le gluino serait formé par paire et se désintégrerait en un squark stop et un quark top. Le stop se désintégrerait quant-à-lui en un quark c et un neutralino, particule supersymétrique la plus légère du modèle, stable et interagissant faiblement. Aucun excès par rapport aux prédictions du Modèle Standard n'a été relevé en utilisant les 40pb-1 de données enregistrées par CMS en 2010. Les limites obtenues à 95% de niveau de confiance permettent d'exclure des masses de stop jusqu'à 175 GeV pour des masses de gluinos allant jusqu'à 350 GeV et des faibles différences de masses entre le stop et le neutralino.
313

Contre-mesures géométriques aux attaques exploitant les canaux cachés

Guilley, Sylvain 10 January 2007 (has links) (PDF)
Ce travail de thèse concerne la sécurisation des circuits électroniques contre les attaques (dites SCA) qui visent leur implémentation. Les algorithmes cryptographiques ont été traditionnellement étudiés pour résister aux attaques théoriques. Néanmoins, dès lors que ces algorithmes sont mis en oeuvre sur des dispositifs concrets, de nouvelles attaques deviennent possibles. Effectivement, de l'information peut être extraite passivement (par observation). Cette information complémentaire, communément appelée "canal caché", apporte un pouvoir supplémentaire aux attaquants. Les canaux cachés les plus populaires sont la consommation électrique et le rayonnement électromagnétique. Nous montrons tout d'abord que les attaques sur les canaux cachés sont structurelles, c'est-à-dire inhérentes au traitement de l'information. Il se trouve par ailleurs que les algorithmes cryptographiques sont spécialement sensibles aux SCA, à cause des propriétés constitutives des fonctions booléennes utilisées. Le talon d'Achille principal est l'architecture RTL de l'opérateur cryptographique. Effectivement, les transferts de registres rendent possible une attaque dite en distance de Hamming. Nous continuons en recherchant des moyens permettant de ne fuir pratiquement aucune information exploitable par un attaquant. Des portes logiques sécurisées sont conçues de sorte à minimiser les violations de symétrie. Une stratégie de routage équilibré obéi aux mêmes critères. La conservation de la symétrie est traitée avec un soin tout particulier, aboutissant à la méthode générique de "backend duplication".
314

Transformations de programmes et optimisations de l'architecture mémoire pour la synthèse de haut niveau d'accélérateurs matériels

Plesco, Alexandru 27 September 2010 (has links) (PDF)
Une grande variété de produits vendus, notamment de télécommunication et multimédia, proposent des fonctionnalités de plus en plus avancées. Celles-ci induisent une augmentation de la complexité de conception. Pour satisfaire un budget de performance et de consommation d'énergie, ces fonctionnalités peuvent être accélérées par l'utilisation d'accélérateurs matériels dédiés. Pour respecter les délais nécessaires de mise sur le marché et le prix de développement, les méthodes traditionnelles de conception de matériel ne sont plus suffisantes et l'utilisation d'outils de synthèse de haut niveau (HLS) est une alternative intéressante. Ces outils sont maintenant plus aboutis et permettent de générer des accélérateurs matériels possédant une structure interne optimisée, grâce à des techniques d'ordonnancement efficaces, de partage des ressources et de génération de machines d'états. Cependant, les interfacer avec le monde extérieur, c'est-à-dire intégrer des accélérateurs matériels générés automatiquement dans une conception complète, avec des communications optimisées pour atteindre le meilleur débit, reste une tâche très ardue, réservée aux concepteurs experts. Le leitmotiv de cette thèse était d'étudier et d'élaborer des stratégies source-à-source pour améliorer la conception de ces interfaces, en essayant d'envisager l'outil HLS comme back-end pour des transformations front-end plus avancées. Dans la première partie de la thèse, comme étude de cas, nous avons conçu à la main, en VHDL, une logique intelligente permettant l'interfaçage d'un accélérateur, calculant la multiplication de deux matrices, généré par l'outil de synthèse MMAlpha. En utilisant des informations sur les dépendances de données, nous avons implanté des techniques de double tampon et de calcul/transfert par bloc (pavage), pour des mémoires locales SRAM de type scratchpad, pour améliorer la réutilisation des données. Ceci a permis d'augmenter de manière significative les performances du système, mais a également exigé un effort important de développement. Nous avons ensuite montré, sur plusieurs applications de type multimédia, avec un autre outil de HLS, Spark, que le même avantage pouvait être obtenu avec une étape préliminaire semi-automatique de transformations source-à-source (ici de C vers C). Pour cela, nous avons utilisé le front-end d'un compilateur avancé, basé sur le compilateur Open64 et l'outil WRaP-IT de transformations polyédriques. Des améliorations significatives ont été présentées, en particulier pour la synthèse de la conversion de l'espace couleur (extrait d'un benchmark de MediaBench II), dont les données étaient transmises via une mémoire cache. Cette étude a démontré l'importance des transformations des boucles comme étape de pré-traitement pour les outils HLS, mais aussi la difficulté de les utiliser en fonction des caractéristiques de l'outil HLS pour exprimer les communications externes. Dans la deuxième partie de la thèse, en utilisant l'outil C2H HLS d'Altera qui peut synthétiser des accélérateurs matériels communiquant avec une mémoire externe DDR-SDRAM, nous avons montré qu'il était possible de restructurer automatiquement le code de l'application, de générer des processus de communication adéquats, écrits entièrement en C, et de les compiler avec C2H, afin que l'application résultante soit hautement optimisée, avec utilisation maximale de la bande passante mémoire. Ces transformations et optimisations, qui combinent des techniques telles que l'utilisation de double tampon, la contraction de tableaux, le pavage, le pipeline logiciel, entre autres, ont été intégrées dans un outil de transformation automatique source-à-source, appelé Chuba et basé sur la représentation du modèle polyédrique. Notre étude montre que ainsi qu'il est possible d'utiliser certains outils HLS comme des optimiseurs de niveau back-end pour les optimisations effectuées au niveau front-end, comme c'est le cas pour la compilation standard où des transformations de haut niveau sont développées en amont des optimiseurs au niveau assembleur. Nous pensons que ceci est la voie à suivre pour que les outils HLS deviennent viables.
315

Vers le sens des sons: Modélisation sonore et contrôle haut niveau

Ystad, Solvi 14 September 2010 (has links) (PDF)
Les travaux présentés dans ce document visent à mieux comprendre la relation entre la structure (ou morphologie) acoustique des sons et le sens communiqué par ces derniers. Ils s'appuient sur une approche pluridisciplinaire associant mathématiques, acoustique, traitement du signal, perception et cognition, dans laquelle la synthèse numérique des sons constitue le point central. Ce travail aborde les aspects fondamentaux liés à la compréhension du traitement cognitif et perceptif des sons mais aussi les aspects appliqués où le contrôle évocateur des processus de synthèse joue un rôle privilégié. Les principaux résultats obtenus ont été déclinés suivant deux axes: les sons musicaux et les sons environnementaux et industriels. Dans le cadre des sons musicaux des questions liées à la caractérisation perceptive des instruments de musique ainsi qu'au contrôle exercé par le musicien lors du jeu instrumental ont été traités. On a notamment montré que l'évaluation subjective de notes isolés de sons de piano dépend de l'expertise des sujets et permet difficilement d'évaluer la musicalité de l'instrument. La prise en compte du contexte musical nous a conduit a étudier l'influence du contrôle du musicien sur le son lors de l'interprétation musicale. On a montré que l'instrumentiste contrôle de façon systématique les variations de timbre de l'instrument et que ces variations influent notablement sur l'interprétation musicale. Dans le cadre plus général de sons environnementaux et industriels, on s'est attaché à mieux comprendre les relations entre la structure morphologique des sons et la perception qui en découle. Par une approche « neuro-acoustique » associant imagerie cérébrale et analyses acoustiques, des invariants caractéristiques de certaines catégories sonores ont été identifiés. Ces invariants sont à la base d'un modèle de contrôle « haut niveau » permettant la synthèse de sons à partir d'évocations. Ces résultats nous permettent d'envisager la construction d'un véritable langage de sons basé sur la génération de métaphores sonores.
316

Vérification semi-formelle et synthèse automatique de PSL vers VHDL

Oddos, Y. 27 November 2009 (has links) (PDF)
La vérification à base de propriétés (PBV) est devenue un élément essentiel des flots de conception pour supporter la vérification de circuits complexes. Pour de tels composants où les techniques de vérification formelle ne peuvent s'appliquer, la vérification dynamique à base de propriétés connecte au circuit des moniteurs et des générateurs de test synthétisés à partir de propriétés pour construire de manière simple un environnement de test. Durant cette thèse une partie des travaux à consisté à développer une approche de synthèse de propriétés pour la génération de vecteurs de test. Dans ce contexte, les propriétés décrivent l'environnement du circuit sous test. Elles sont synthétisées en générateurs produisant des séquences de test respectant la propriété correspondante. Il est alors possible de spécifier et d'obtenir un modèle pour tout l'environnement du circuit. Alors que notre approche est modulaire, une méthode à base d'automates a été développée en collaboration avec l'université de McGill. La contribution la plus intéressante de cette thèse tiens dans la méthode qui a été mise en place pour synthétiser une spécification temporelle en un circuit correct par construction. Alors que les approches de l'état de l'art ont une complexité polynomiale, la nôtre est linéaire en la spécification. L'outil SyntHorus a été développé pour supporter cette méthode et synthétise en quelques secondes un circuit correct par construction à partir d'une spécification de plusieurs centaines de propriétés. La correction des générateurs et de la méthode de synthèse a été effectuée à l'aide du prouveur de théorème PVS. Les méthodes et outils développés durant cette thèse ont été validés, renforcés et transférés dans l'industrie grâce à plusieurs coopérations (Thalès Group, Dolphin Integration et ST-Microelectronics) et au projet ANR SFINCS.
317

Étude théorique et expérimentale du suivi de particules uniques en conditions extrêmes : imagerie aux photons uniques

Cajgfinger, Thomas 19 October 2012 (has links) (PDF)
Ce manuscrit présente mon travail de thèse portant sur le détecteur de photons uniques electron-bombarded CMOS (ebCMOS) à haute cadence de lecture (500 images/seconde). La première partie compare trois détecteurs ultra-sensibles et et leurs méthodes d'amélioration de la sensibilité au photon : le CMOS bas bruit (sCMOS), l'electron-multiplying CCD (emCCD) à multiplication du signal par pixel et l'ebCMOS à amplification par application d'un champ électrique. La méthode de mesure de l'impact intra-pixel des photons sur le détecteur ebCMOS est présentée. La seconde partie compare la précision de localisation de ces trois détecteurs dans des conditions extrêmes de très bas flux de photons (<10 photons/image). La limite théorique est tout d'abord calculée à l'aide de la limite inférieure de Cramér-Rao pour des jeux de paramètres significatifs. Une comparaison expérimentale des trois détecteurs est ensuite décrite. Le montage permet la création d'un ou plusieurs points sources contrôlés en position, nombre de photons et bruit de fond. Les résultats obtenus permettent une comparaison de l'efficacité, de la pureté et de la précision de localisation des sources. La dernière partie décrit deux expériences réalisées avec la caméra ebCMOS. La première consiste au suivi de nano-cristaux libres (D>10 μm²/s ) au centre Nanoptec avec l'équipe de Christophe Dujardin. La seconde s'intéresse à la nage de bactéries en surface à l'institut Joliot Curie avec l'équipe de Laurence Lemelle. L'algorithme de suivi de sources ponctuelles au photon unique avec l'implémentation d'un filtre de Kalman est aussi décrit.
318

Méthodes multivariées pour l'analyse jointe de données de neuroimagerie et de génétique

Le Floch, Edith 28 September 2012 (has links) (PDF)
L'imagerie cérébrale connaît un intérêt grandissant, en tant que phénotype intermédiaire, dans la compréhension du chemin complexe qui relie les gènes à un phénotype comportemental ou clinique. Dans ce contexte, un premier objectif est de proposer des méthodes capables d'identifier la part de variabilité génétique qui explique une certaine part de la variabilité observée en neuroimagerie. Les approches univariées classiques ignorent les effets conjoints qui peuvent exister entre plusieurs gènes ou les covariations potentielles entre régions cérébrales.Notre première contribution a été de chercher à améliorer la sensibilité de l'approche univariée en tirant avantage de la nature multivariée des données génétiques, au niveau local. En effet, nous adaptons l'inférence au niveau du cluster en neuroimagerie à des données de polymorphismes d'un seul nucléotide (SNP), en cherchant des clusters 1D de SNPs adjacents associés à un même phénotype d'imagerie. Ensuite, nous prolongeons cette idée et combinons les clusters de voxels avec les clusters de SNPs, en utilisant un test simple au niveau du "cluster 4D", qui détecte conjointement des régions cérébrale et génomique fortement associées. Nous obtenons des résultats préliminaires prometteurs, tant sur données simulées que sur données réelles.Notre deuxième contribution a été d'utiliser des méthodes multivariées exploratoires pour améliorer la puissance de détection des études d'imagerie génétique, en modélisant la nature multivariée potentielle des associations, à plus longue échelle, tant du point de vue de l'imagerie que de la génétique. La régression Partial Least Squares et l'analyse canonique ont été récemment proposées pour l'analyse de données génétiques et transcriptomiques. Nous proposons ici de transposer cette idée à l'analyse de données de génétique et d'imagerie. De plus, nous étudions différentes stratégies de régularisation et de réduction de dimension, combinées avec la PLS ou l'analyse canonique, afin de faire face au phénomène de sur-apprentissage dû aux très grandes dimensions des données. Nous proposons une étude comparative de ces différentes stratégies, sur des données simulées et des données réelles d'IRM fonctionnelle et de SNPs. Le filtrage univarié semble nécessaire. Cependant, c'est la combinaison du filtrage univarié et de la PLS régularisée L1 qui permet de détecter une association généralisable et significative sur les données réelles, ce qui suggère que la découverte d'associations en imagerie génétique nécessite une approche multivariée.
319

Langages Applicatifs et Machines Abstraites pour la Couverture de Code Structurelle

Wang, Philippe 04 October 2012 (has links) (PDF)
Cette thèse présente une étude qui répond à un besoin industriel d'avoir des outils pour aider à la qualité et au respect des processus de développement de logiciels critiques comme ceux du domaine de l'avionique civile. Il s'agit de l'étude de la couverture de code structurelle pour un langage de la famille ML. Dans ce contexte, ML apparaît comme un langage particulièrement riche en constructions de haut-niveau d'abstraction et expressif. Son utilisation est un élément de progrès mais soulève des problèmes d'adaptation des pratiques du génie logiciel classique pour les systèmes critiques. Notamment, la notion de couverture des conditions et des décisions ainsi que les critères de couverture dérivés se complexifient rapidement. Nous donnons alors en première contribution plusieurs sémantiques pour l'interprétation des définitions des conditions et des décisions pour un langage d'expressions de haut-niveau que nous avons complètement formellement défini. Ensuite, nous donnons la sémantique formelle pour une implantation pour la mesure de couverture par réécriture du code source, ce que nous appelons l'instrumentation intrusive. Puis, nous étudions une technique qui ne réécrit pas le code, ce qui permet d'avoir la possibilité d'utiliser le même binaire pour les tests et pour la production. Cette technique, que nous appelons non intrusive, consiste à générer les informations de correspondance entre le code source et le code machine, et éventuellement d'autres informations, pour que l'environnement d'exécution incluant une machine virtuelle puisse enregistrer les traces nécessaires à l'élaboration des rapports de couverture. Enfin, nous comparons ces deux approches, en terme de sémantique, d'utilisation et d'implantation.
320

Réseaux Spontanés et Auto-Organisants: du Codage Spatio-Temporel au Codage de Réseaux

Osmane, Ali 07 December 2011 (has links) (PDF)
Nous étudions un protocole de coopération dans les réseaux MIMO à deux sauts : le rotate-and-forward (RF). Dans ces réseaux, la source et la destination ne communiquent qu'à travers une couche de relais. Nous étudions la performance du protocole RF à partir d'une nouvelle métrique appelée gain de coupure. Ce gain nous permet de décrire le comportement de la probabilité de coupure à des valeurs du rapport signal à bruit moyennes et élevées. En utilisant le gain de coupure, nous comparons la performance du RF aux performances d'autres protocoles ayant le même ordre de diversité que le RF. Nous supposons aussi qu'une voie de retour existe entre la destination et les relais et nous donnons un algorithme qui permet d'améliorer les performances du RF en termes de probabilité de coupure en se basant sur la connaissance des gains du canal. Nous considérons un protocole de codage de réseaux au niveau physique : le compute-and-forward (CF). Nous nous intéressons à la maximisation du débit de calcul et nous montrons que c'est équivalent à la recherche du vecteur le plus court dans un réseau de points donné. Tout d'abord, nous implémentons le protocole utilisant des réseaux de points uni-dimensionnels et des gains de canal réels. Nous nous basons sur la fonction de maximum de vraisemblance (ML) pour proposer une technique de décodage quasi-ML et nous montrons que le décodage s'effectue par une approximation Diophantienne inhomogène. Ensuite, nous généralisons certains de ces résultats au cas des réseaux de points multi-dimensionnels et des gains de canal complexes, et nous proposons un critère de construction des codes en réseaux de points qu'on appelle le facteur de platitude.

Page generated in 0.0417 seconds