• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 10
  • 1
  • Tagged with
  • 27
  • 27
  • 8
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Analyse temporelle de circuits combinatoires /

Melcher, Elmar. January 1993 (has links)
Th.--Electronique et communications--Paris--ENST, 1993. / Bibliogr. p. 171-178.
2

Novel preparation techniques and reactivity of cobalt metal nanoparticles for synthesis of clean fuels using Fischer-Tropsch reaction / Nouvelles techniques de préparation et réactivité des nano-particules métalliques de cobalt pour la synthèse des carburants propres par la réaction Fischer-Tropsch

Hong, Jingping 30 May 2009 (has links)
La synthèse Fischer-Tropsch permet de produire des carburants propres à partir du gaz naturel, de la biomasse ou du charbon. Les carburants issus d’une synthèse Fischer-Tropsch sont totalement exempts de soufre et de composés aromatiques. Cette thèse présente de nouvelles approches de conception des catalyseurs Fischer-Tropsch à base de cobalt supportés par des silices mésoporeuses. Ces approches sont fondées sur la promotion de catalyseurs par le ruthénium et la zircone, sur l’utilisation de la technique plasma pour la décomposition du précurseur de cobalt, ainsi que sur l’étude cinétique des étapes élémentaires de la réaction Fischer-Tropsch dans des conditions transitoires dont la méthode TAP. La structure des catalyseurs a été caractérisée à chaque étape de leur synthèse et de leur activation par des techniques physico-chimiques dont certaines techniques in-situ. Il a été démontré que la promotion des catalyseurs avec le ruthénium et l’oxyde de zirconium dépendait fortement de la texture du support. La promotion améliore la performance catalytique de façon plus importante pour les catalyseurs supportés par les silices qui possèdent des pores plus étroits. L’utilisation de la technique plasma pour la décomposition du cobalt permet de contrôler efficacement la taille des nanoparticules de cobalt et donc d’améliorer de façon significative les performances catalytiques. Les études transitoires et la modélisation des étapes élémentaires ont fourni des informations fondamentales sur la nature des sites actifs des catalyseurs à base de cobalt pour la réaction Fischer-Tropsch. / Fischer-Tropsch synthesis produces clean hydrocarbon fuels from natural gas, biomass or coal. These synthetic fuels are totally free of sulfur and aromatics. This thesis addresses novel approaches to the design of cobalt Fischer-Tropsch catalysts supported by mesoporous silicas. These approaches involve catalyst promotion with ruthenium and zirconium oxide, use of plasma technology for the decomposition of cobalt precursors and kinetic studies of the elementary steps of the Fischer-Tropsch by transient kinetic methods including TAP. The structure of catalysts was characterized at each stage of their synthesis and their activation by physico-chemical techniques including in-situ methods. It was shown that the promotion of catalysts with ruthenium and zirconium oxide strongly depended on the texture of the support. The promotion improved the catalytic performance more importantly for the catalysts supported by narrow pore silicas. Use of plasma technology for the decomposition of cobalt precursors allowed efficient control of the size of cobalt nanoparticles and thus resulted in the enhanced catalytic performance. Transient kinetic studies and modeling of the elementary reaction steps have provided fundamental information on the nature of active sites in the supported cobalt catalysts for Fischer-Tropsch reaction.
3

Examen de la contribution des habiletés de traitement temporel à la performance en lecture durant l'enfance /

Malenfant, Nathalie. January 2009 (has links) (PDF)
Thèse (Ph.D.)--Université Laval, 2009. / Bibliogr.: f. 111-120. Publié aussi en version électronique dans la Collection Mémoires et thèses électroniques.
4

Test de robustesse des systèmes temps-réel thèse pour le doctorat en sciences spécialité Informatique /

Rollet, Antoine Fouchal, Hacène. January 2005 (has links) (PDF)
Reproduction de : Thèse de doctorat : Informatique : Reims : 2004. / Titre provenant de l'écran titre. Bibliogr. p. 127-144.
5

Ordonnancement hybride des applications flots de données sur des systèmes embarqués multi-coeurs / Hybrid scheduling of streaming applications to account for interprocessor communication in embedded manycores

Dkhil, Amira 14 April 2015 (has links)
Les systèmes embarqués sont de plus en plus présents dans l'industrie comme dans la vie quotidienne. Une grande partie de ces systèmes comprend des applications effectuant du traitement intensif des données: elles utilisent de nombreux filtres numériques, où les opérations sur les données sont répétitives et ont un contrôle limité. Les graphes "flots de données", grâce à leur déterminisme fonctionnel inhérent, sont très répandus pour modéliser les systèmes embarqués connus sous le nom de "data-driven". L'ordonnancement statique et périodique des graphes flot de données a été largement étudié, surtout pour deux modèles particuliers: SDF et CSDF. Dans cette thèse, on s'intéresse plus particulièrement à l'ordonnancement périodique des graphes CSDF. Le problème consiste à identifier des séquences périodiques infinies d'actionnement des acteurs qui aboutissent à des exécutions complètes à buffers bornés. L'objectif est de pouvoir aborder ce problème sous des angles différents : maximisation de débit, minimisation de la latence et minimisation de la capacité des buffers. La plupart des travaux existants proposent des solutions pour l'optimisation du débit et négligent le problème d'optimisation de la latence et propose même dans certains cas des ordonnancements qui ont un impact négatif sur elle afin de conserver les propriétés de périodicité. On propose dans cette thèse un ordonnancement hybride, nommé Self-Timed Périodique (STP), qui peut conserver les propriétés d'un ordonnancement périodique et à la fois améliorer considérablement sa performance en terme de latence. / One of the most important aspects of parallel computing is its close relation to the underlying hardware and programming models. In this PhD thesis, we take dataflow as the basic model of computation, as it fits the streaming application domain. Cyclo-Static Dataflow (CSDF) is particularly interesting because this variant is one of the most expressive dataflow models while still being analyzable at design time. Describing the system at higher levels of abstraction is not sufficient, e.g. dataflow have no direct means to optimize communication channels generally based on shared buffers. Therefore, we need to link the dataflow MoCs used for performance analysis of the programs, the real time task models used for timing analysis and the low-level model used to derive communication times. This thesis proposes a design flow that meets these challenges, while enabling features such as temporal isolation and taking into account other challenges such as predictability and ease of validation. To this end, we propose a new scheduling policy noted Self-Timed Periodic (STP), which is an execution model combining Self-Timed Scheduling (STS) with periodic scheduling. In STP scheduling, actors are no longer strictly periodic but self-timed assigned to periodic levels: the period of each actor under periodic scheduling is replaced by its worst-case execution time. Then, STP retains some of the performance and flexibility of self-timed schedule, in which execution times of actors need only be estimates, and at the same time makes use of the fact that with a periodic schedule we can derive a tight estimation of the required performance metrics.
6

L'influence de l'heure de la journée sur le choix entre une formule de pourboire inclusive ou volontaire

Turcotte, Stéphanie 27 January 2024 (has links)
La norme du pourboire en restaurant s'est diversifiée en apportant plusieurs exceptions liées aux suggestions de montants et pourcentages à remettre en fonction du contexte de la visite. Cela rend l'attribution du bon montant de pourboire plus difficile cognitivement, d’autant plus que le contexte de restauration est différent à chaque visite et qu'il ne favorise pas les réflexions cognitives. L’objectif principal de la recherche est d’identifier les différences dans les choix des consommateurs québécois pour une formule de pourboire inclusive ou volontaire en fonction du contexte de la visite, soit de l’heure de la journée et du fait de visiter le restaurant seul ou accompagné. L’objectif secondaire de l’étude est d’identifier ce que l’heure de la journée influence en contexte de restauration et ce qui peut influencer le choix pour la formule de pourboire. Afin de vérifier les hypothèses liées à ces objectifs, un sondage par interception a été réalisé dans quatre restaurants Normandin de la ville de Québec. Avec un échantillon de 625 répondants, les résultats issus des analyses principales ont montré qu’il n’y avait pas suffisamment de preuves pour confirmer les hypothèses principales. Toutefois, les résultats ont permis de montrer que l’heure de la journée avait une influence négative et significative sur le niveau de contrôle de soi. Les résultats en lien avec l’objectif secondaire de l’étude montraient que l’heure de la journée influençait significativement la dimension positive de l’humeur, le contrôle de soi, le niveau de satisfaction et la probabilité de revenir. Aussi, le niveau d’achalandage, l’emplacement dans le restaurant, la préférence en général ainsi que la probabilité de revenir influençait de façon significative le choix pour la formule de pourboire. Les résultats de l’étude permettent d’entrevoir des contributions tant sur le plan théorique que managériale, tout en laissant place à d’autres perspectives de recherche.
7

Mouvement et vidéo : estimation, compression et filtrage morphologique

Laveau, Nicolas 12 December 2005 (has links) (PDF)
Le travail de thèse développé dans ce mémoire porte sur le traitement des séquences vidéos. Ceci inclut la compression pour une grande partie de la thèse, mais également le filtrage spatio-temporel et la segmentation vidéo. Un des outils d'analyse récurrent dans chacune de ces applications est la mesure du mouvement, c'est-à-dire la description de la cohérence temporelle d'une séquence vidéo. Un système de compression vidéo comprend généralement les trois composantes suivantes : estimation du mouvement, transformations temporelle et spatiale, quantification et codage des coefficients. Nous nous intéressons successivement à chacune de ces composantes. Dans un premier temps, nous essayons d'adapter une méthode d'estimation par projection du flot optique sur une base d'ondelettes à valeur complexe à la compression vidéo. Le champ obtenu étant dense et sensible au bruit, nous introduisons dans la résolution un élément de régularisation afin de diminuer son coût de codage. En dépit d'une nette amélioration apportée par nos modifications, la technique d'estimation par projection sur une base d'ondelettes n'est pas compétitive face au block-matching qui constitue l'algorithme de référence pour la compression vidéo. Cela illustre bien le fait que le choix et la conception d'une méthode sont étroitement liés à l'usage qui en est fait : des mé- thodes d'estimation de mouvement optimisées pour des applications aussi diverses que la compression vidéo, le filtrage et la segmentation, ou encore l'analyse de scènes 3D ont peu de chances d'être les mêmes. Dans ces expériences, nous avons utilisé une méthode visant à satisfaire un critère qui est équivalent à un critère d'appariement optimal pour la compression sous des conditions théoriques qui ne sont en général pas vérifiées. Une telle approche est donc visiblement sous-optimale. Forts de cette observation, nous avons ensuite développé une méthode de mesure de mouvement qui repose sur une paramétrisation du champ bilinéaire par morceaux, et qui minimise cette fois directement l'erreur quadratique moyenne qui est notre critère d'évaluation. Nous montrons qu'il est possible d'obtenir de bons résultats quand les paramètres du champ sont épars. Un codage vidéo avec une prédiction temporelle suppose de coder des données aussi hétérogènes que des champs de mouvement ou des images d'erreur. Nous avons travaillé sur l'allocation de débit entre images d'erreur et de manière moins approfondie entre image d'erreur et champ de mouvement. Nous avons adapté un modèle de planification de débit introduit par Mallat et Falzon qui a été initialement conçu pour des images statiques et qui est actuellement utilisé pour la compression au ot d'images satellitales. Cette approche se révèle meilleure que des approches plus classiquement utilisées en compression vidéo. Pour pouvoir effectuer un codage par transformée du champ et des images d'erreur, nous avons cherché à concevoir de nouvelles transformations en sous-bandes non-linéaires. Pour cela, nous avons utilisé le schéma de lifting, qui garantit l'inversibilité formelle des transformations qu'il peut réaliser, que celles-ci soient linéaires ou non. Nous avons construit deux nouvelles décompositions non-linéaires. La première vise à réduire un artéfact communément appelé e et de Gibbs. Cette première décomposition consiste à utiliser un prédicteur de Deslauriers-Dubuc modifié de manière à réduire ces artéfacts. La modification introduite permet effectivement de réduire les oscillations autour de discontinuités en échange d'un surcoût modeste en terme d'efficacité de représentation dans les sections régulières du signal représenté. La formulation évite le mécanisme de transition d'un filtre à l'autre relativement habituel dans ce genre d'approche en recourant à des opérateurs continus de type min et max, qui permettent de garantir la continuité de la transformation et donc sa stabilité après quantification. L'autre se propose d'améliorer la décomposition en ondelettes du champ de mouvement en utilisant l'information qu'apporte chacune de ses composantes sur l'autre. En effet, l'intuition nous incite à penser que les discontinuités sont présentes au même endroit dans chacune des composantes du mouvement. Nous nous servons de cette co-occurrence des discontinuités pour choisir le filltre de prédiction. Dans les deux cas, les méthodes mises au point donnent des résultats positifs sur des signaux de synthèse mais perdent en efficacité sur des signaux réels. Une des grandes difficultés est de mettre au point un étage de mise-à-jour dans le schéma de lifting. Par ailleurs, le schéma linéaire le plus efficace est un schéma à 4 étages pour lequel il est difficile de concevoir un concurrent non-linéaire dans la mesure où ses propriétés sont difficilement lisibles sur les étages individuels du schéma de lifting. Nfin transposé des idées rencontrées en compression vidéo pour dé nir des opérations de filtrage morphologique vidéo intégrant la mesure du mouvement, utilisant des éléments structurants qui suivent le mouvement. L'application de ces idées donne des résultants probants en filltrage et en segmentation, en particulier grâce à une forte cohérence spatio-temporelle introduite dans les voisinages : cette approche donne des résultats de segmentation plus stables puisqu'elle impose une cohérence temporelle beaucoup plus forte aux frontières des régions que les méthodes itératives en temps. Nous discutons ensuite des possibilités d'utilisation de champs de mouvement à précision sous-pixellique.
8

Analyse des différences dans le Big Data : Exploration, Explication, Évolution / Difference Analysis in Big Data : Exploration, Explanation, Evolution

Kleisarchaki, Sofia 28 November 2016 (has links)
La Variabilité dans le Big Data se réfère aux données dont la signification change de manière continue. Par exemple, les données des plateformes sociales et les données des applications de surveillance, présentent une grande variabilité. Cette variabilité est dûe aux différences dans la distribution de données sous-jacente comme l’opinion de populations d’utilisateurs ou les mesures des réseaux d’ordinateurs, etc. L’Analyse de Différences a comme objectif l’étude de la variabilité des Données Massives. Afin de réaliser cet objectif, les data scientists ont besoin (a) de mesures de comparaison de données pour différentes dimensions telles que l’âge pour les utilisateurs et le sujet pour le traffic réseau, et (b) d’algorithmes efficaces pour la détection de différences à grande échelle. Dans cette thèse, nous identifions et étudions trois nouvelles tâches analytiques : L’Exploration des Différences, l’Explication des Différences et l’Evolution des Différences.L’Exploration des Différences s’attaque à l’extraction de l’opinion de différents segments d’utilisateurs (ex., sur un site de films). Nous proposons des mesures adaptées à la com- paraison de distributions de notes attribuées par les utilisateurs, et des algorithmes efficaces qui permettent, à partir d’une opinion donnée, de trouver les segments qui sont d’accord ou pas avec cette opinion. L’Explication des Différences s’intéresse à fournir une explication succinte de la différence entre deux ensembles de données (ex., les habitudes d’achat de deux ensembles de clients). Nous proposons des fonctions de scoring permettant d’ordonner les explications, et des algorithmes qui guarantissent de fournir des explications à la fois concises et informatives. Enfin, l’Evolution des Différences suit l’évolution d’un ensemble de données dans le temps et résume cette évolution à différentes granularités de temps. Nous proposons une approche basée sur le requêtage qui utilise des mesures de similarité pour comparer des clusters consécutifs dans le temps. Nos index et algorithmes pour l’Evolution des Différences sont capables de traiter des données qui arrivent à différentes vitesses et des types de changements différents (ex., soudains, incrémentaux). L’utilité et le passage à l’échelle de tous nos algorithmes reposent sur l’exploitation de la hiérarchie dans les données (ex., temporelle, démographique).Afin de valider l’utilité de nos tâches analytiques et le passage à l’échelle de nos algo- rithmes, nous réalisons un grand nombre d’expériences aussi bien sur des données synthé- tiques que réelles.Nous montrons que l’Exploration des Différences guide les data scientists ainsi que les novices à découvrir l’opinion de plusieurs segments d’internautes à grande échelle. L’Explication des Différences révèle la nécessité de résumer les différences entre deux ensembles de donnes, de manière parcimonieuse et montre que la parcimonie peut être atteinte en exploitant les relations hiérarchiques dans les données. Enfin, notre étude sur l’Evolution des Différences fournit des preuves solides qu’une approche basée sur les requêtes est très adaptée à capturer des taux d’arrivée des données variés à plusieurs granularités de temps. De même, nous montrons que les approches de clustering sont adaptées à différents types de changement. / Variability in Big Data refers to data whose meaning changes continuously. For instance, data derived from social platforms and from monitoring applications, exhibits great variability. This variability is essentially the result of changes in the underlying data distributions of attributes of interest, such as user opinions/ratings, computer network measurements, etc. {em Difference Analysis} aims to study variability in Big Data. To achieve that goal, data scientists need: (a) measures to compare data in various dimensions such as age for users or topic for network traffic, and (b) efficient algorithms to detect changes in massive data. In this thesis, we identify and study three novel analytical tasks to capture data variability: {em Difference Exploration, Difference Explanation} and {em Difference Evolution}.Difference Exploration is concerned with extracting the opinion of different user segments (e.g., on a movie rating website). We propose appropriate measures for comparing user opinions in the form of rating distributions, and efficient algorithms that, given an opinion of interest in the form of a rating histogram, discover agreeing and disargreeing populations. Difference Explanation tackles the question of providing a succinct explanation of differences between two datasets of interest (e.g., buying habits of two sets of customers). We propose scoring functions designed to rank explanations, and algorithms that guarantee explanation conciseness and informativeness. Finally, Difference Evolution tracks change in an input dataset over time and summarizes change at multiple time granularities. We propose a query-based approach that uses similarity measures to compare consecutive clusters over time. Our indexes and algorithms for Difference Evolution are designed to capture different data arrival rates (e.g., low, high) and different types of change (e.g., sudden, incremental). The utility and scalability of all our algorithms relies on hierarchies inherent in data (e.g., time, demographic).We run extensive experiments on real and synthetic datasets to validate the usefulness of the three analytical tasks and the scalability of our algorithms. We show that Difference Exploration guides end-users and data scientists in uncovering the opinion of different user segments in a scalable way. Difference Explanation reveals the need to parsimoniously summarize differences between two datasets and shows that parsimony can be achieved by exploiting hierarchy in data. Finally, our study on Difference Evolution provides strong evidence that a query-based approach is well-suited to tracking change in datasets with varying arrival rates and at multiple time granularities. Similarly, we show that different clustering approaches can be used to capture different types of change.
9

Traitement d'ordre temporel en mémoire à court-terme et reproduction temporelle

Chérif, Lobna 02 March 2021 (has links)
Dans la présente étude, l'effet d'un traitement d'ordre temporel d'item en MCT sur la reproduction d'un intervalle de temps est testé dans deux expériences. La tâche non temporelle des participants consiste à vérifier si un chiffre indique ou non la bonne position temporelle d'une lettre cible dans un ensemble mémoire présenté au préalable. Le traitement de l'information d'item est réduit au minimum par l'utilisation d'un ensemble fermé de lettres qui ne changent pas pendant un bloc expérimental. Dans la première expérience, le traitement de l'ordre en MCT se fait pendant la phase d'encodage de l'intervalle à reproduire. Dans la deuxième expérience, le traitement de l'ordre se fait pendant la phase de reproduction. L'identification d'ordre temporel en MCT perturbe l'estimation temporelle simultanée dans des conditions où la quantité d'information d'item à traiter en mémoire est minimale. Ces résultats suggèrent que l'estimation d'un intervalle temporel et le traitement d'ordre temporel en mémoire utilisent des ressources communes.
10

Recherche de signatures spectrales d’objets astronomiques variant ultra rapidement dans les relevés spectroscopiques

Trottier, Éric 19 April 2018 (has links)
Le domaine temporel est celui le moins exploré en astronomie [4]. À ce jour, les objets astronomiques connus variant avec les périodes les plus courtes sont les pulsars qui varient avec des périodes de quelques millisecondes. C'est pourquoi, une technique basée sur la théorie de Fourier est proposée pour détecter des objets qui varient avec des périodes extrêmement courtes (10* s et moins). Remarquez qu'il existe des indications que ces objets pourraient exister [10]. La distribution spectrale d'une source lumineuse variant avec une période très brève est donnée par la transformée de Fourier de la variation temporelle. Il en résulte que la distribution spectrale est modulée par une variation périodique fréquentielle. Durant la dernière décennie, des relevés {surveys) spectroscopiques ont été faits par le SDSS. La banque de données spectrales du SDSS-IIDR7 contient environ 2.5 millions de spectres, dont 700 000 étoiles, 1.4 million de galaxies et 200 000 quasars (et près de 100 000 spectres du ciel), lesquels sont accessibles au public. Pour analyser ces spectres, des techniques utilisant les transformées de Fourier et un logiciel de détection {Matlab) ont été développés. Comme le logiciel peut faire des fausses identifications, l'inspection visuelle des spectres extraits est requise. Les résultats obtenus (voir chapitre 4) montrent que pour certaines étoiles ordinaires, des modulations spectrales statistiquement significatives ont été découvertes. Pour les étoiles et les galaxies, les distributions statistiques obtenues sont compatibles avec celle de Rayleigh, mais pour les 23 quasars sortis les statistiques de petits nombres semblent biaiser cette compatibilité. Finalement, bien que la justification originale pour cette recherche consiste à découvrir des pulsateurs ultra-rapides, il n'en demeure pas moins qu'on peut également découvri

Page generated in 0.0783 seconds