• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 10
  • 1
  • Tagged with
  • 27
  • 27
  • 8
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Encodage et reproduction d'intervalles de temps : interférence de traitement non temporel

Chérif, Lobna 11 June 2021 (has links)
Dans la présente étude, l’effet de traitement non temporel sur la tâche de reproduction d’intervalles de temps est testé dans quatre expériences. Trois tâches non temporelles nécessitant l’encodage ou la récupération d’information en mémoire ainsi qu’une tâche d’interruption d’estimation temporelle sont combinées à une tâche de reproduction temporelle nécessitant l’encodage et la reproduction de durées (environ 2 secondes). Les résultats obtenus révèlent que les tâches non temporelles affectent davantage la phase de reproduction que la phase d’encodage de durées suggérant ainsi que l’interférence du traitement non temporel avec la reproduction temporelle simultanée diffère selon que le traitement prenne place durant la phase d’encodage ou la phase de reproduction. Une hypothèse explicative est proposée selon laquelle l’interférence du traitement non temporel avec l’estimation temporelle concurrente varie selon les processus impliqués et les ressources requises dans les deux phases de la tâche temporelle. L’ensemble des résultats est interprété dans le cadre des modèles d’accumulation de l’information temporelle.
12

Examen de la contribution des habiletés de traitement temporel à la performance en lecture durant l'enfance

Malenfant, Nathalie 13 April 2018 (has links)
L'objectif principal de cette thèse consiste à explorer les mécanismes à la base de l'association entre le traitement temporel et la performance en lecture durant l'enfance. La contribution de la conscience phonologique à cette association est examinée. Le vocabulaire et l'intelligence non-verbale sont également considérés à titre de facteurs explicatifs de l'association entre le traiterpent temporel, la conscience phonologique et la lecture. Les objectifs spécifiques sont de 1) tester l 'hypothèse d'une médiation de l'association entre le traitement temporel et la lecture par la conscience phonologique, 2) investiguer les influences génétiques et environnementales spécifiques et communes aux phénotypes à l'étude et 3) examiner la contribution du vocabulaire et de l'intelligence nonverbale aux associations entre le traitement temporel, la conscience phonologique et la lecture, tant sur le plan phénotypique qu'étiologique. Deux études empiriques constituent le corps de cette thèse. La première vise à tester le modèle médiationnel. Les résultats montrent que 44% de l'association entre le traitement temporel et la performance en lecture passe par la conscience phonologique, indépendamment de l'intelligence non-verbale. Le vocabulaire n'est que faiblement impliqué dans cette médiation partiellè. La seconde étude a pour but de caractériser les étiologies spécifique et commune aux phénotypes ciblés. Les différences individuelles sur le plan du traitement temporel sont, tout comme celles pour la conscience phonologique et la lecture, fortement influencées par des gènes additifs. Qui plus est, les résultats révèlent un facteur génétique commun à ces trois phénotypes. Cette base génétique commune est spécifique à ces phénotypes, puisqu'elle n'influence que faiblement le vocabulaire et l'intelligence non-verbale. L'effet de gènes ayant une portée générale sur la cognition est donc insuffisant pour expliquer leur association.
13

L'influence de l'heure de la journée sur le choix entre une formule de pourboire inclusive ou volontaire

Turcotte, Stéphanie 26 February 2021 (has links)
La norme du pourboire en restaurant s'est diversifiée en apportant plusieurs exceptions liées aux suggestions de montants et pourcentages à remettre en fonction du contexte de la visite. Cela rend l'attribution du bon montant de pourboire plus difficile cognitivement, d’autant plus que le contexte de restauration est différent à chaque visite et qu'il ne favorise pas les réflexions cognitives. L’objectif principal de la recherche est d’identifier les différences dans les choix des consommateurs québécois pour une formule de pourboire inclusive ou volontaire en fonction du contexte de la visite, soit de l’heure de la journée et du fait de visiter le restaurant seul ou accompagné. L’objectif secondaire de l’étude est d’identifier ce que l’heure de la journée influence en contexte de restauration et ce qui peut influencer le choix pour la formule de pourboire. Afin de vérifier les hypothèses liées à ces objectifs, un sondage par interception a été réalisé dans quatre restaurants Normandin de la ville de Québec. Avec un échantillon de 625 répondants, les résultats issus des analyses principales ont montré qu’il n’y avait pas suffisamment de preuves pour confirmer les hypothèses principales. Toutefois, les résultats ont permis de montrer que l’heure de la journée avait une influence négative et significative sur le niveau de contrôle de soi. Les résultats en lien avec l’objectif secondaire de l’étude montraient que l’heure de la journée influençait significativement la dimension positive de l’humeur, le contrôle de soi, le niveau de satisfaction et la probabilité de revenir. Aussi, le niveau d’achalandage, l’emplacement dans le restaurant, la préférence en général ainsi que la probabilité de revenir influençait de façon significative le choix pour la formule de pourboire. Les résultats de l’étude permettent d’entrevoir des contributions tant sur le plan théorique que managériale, tout en laissant place à d’autres perspectives de recherche.
14

Spatial and temporal patterns of plankton in European coastal waters : analysis and comparison of zooplankton time series / Variations spatiales et temporelles du plancton dans les eaux côtières européennes : analyse et comparaison de séries temporelles de zooplancton

Eloire, Damien 09 July 2010 (has links)
Le changement climatique est incontestable et affecte les océans. L'observation à long terme d'indicateurs comme le plancton peut permettre l'étude de ces changements. Le suivi du plancton dans les eaux côtières d'Europe représente une source de données importante actuellement sous-exploitée et sur laquelle cette étude est basée. Des outils analytiques ont d'abord été conçus pour résoudre des divergences taxonomiques entre les données et pour réaliser l'analyse temporelle. L'étude du plancton à L4 de 1998 à 2007 révèle de profonds changements dans la composition phytoplanctonique des blooms de printemps et d'automne, et des variations à long terme dans l'abondance des taxa dominants du zooplancton. Le phytoplancton gouverne la succession saisonnière des larves méroplanctoniques. Les changements de température de surface et de vent contrôlent les variations temporelles des communautés planctoniques. Les variations spatio-temporelles du zooplancton ont été comparées à 4 sites de 1998 à 2007 : Ston (Mer du Nord), L4 (Manche), MC (Mer Tyrrhénienne ), et C1 (Mer Adriatique). La structure des communautés est globalement stable, la saisonnalité étant la principale source de variabilité à long terme. La chlorophylle a et le vent expliquent les variations de la communauté zooplanctonique à Ston et L4 alors que c'est la température à MC et C1. Cette étude confirme l'extrême adaptabilité des communautés zooplanctoniques à un environnement variable. Elle souligne l'importance de facteurs tels que taxonomie et échelle temporelle pour l'analyse de séries, et la nécessité de maintenir les séries à long terme pour le suivi de futurs changements dans le contexte du changement climatique. / Climate change is unequivocal and dramatic changes are under way in the world's oceans. Long-term observations of indicators such as plankton can provide a better understanding of these changes. Considerable efforts have been made to monitor plankton in European coastal waters and have produced a large amount of datasets yet to be fully exploited. Analytic tools were first developed to solve taxonomic discrepancies in datasets and for temporal analyses. Time series analysis of plankton at L4 from 1988 to 2007 reveals profound changes in the composition of the spring and autumn phytoplankton blooms, and long-term variations in abundance of the dominant zooplankton taxa. Phytoplankton is driving the seasonal succession of meroplanktonic larvae. Changes in sea surface temperature and wind conditions control temporal patterns of plankton communities. Spatio-temporal patterns of zooplankton are compared at 4 sites: Ston (northern North Sea), L4 (wes tern English Channel), MC (Tyrrhenian Sea), and C1 (Adriatic Sea) from 1998 to 2007. The communities structure is on average stable and seasonal variations are the main source of long-term variability. Chlorophyll a and wind are responsible for the community patterns observed at Ston and L4 whereas temperature is the main driver at MC and C1. This study supports evidences of the extreme flexibility of zooplankton communities in adjusting to a variable environment. We highlighted the importance of factors such as taxonomy and temporal scale on time series analysis, and the necessity of maintaining long-term series to monitor future changes in the context of climate change.
15

Développement financier et croissance économique : études théoriques et applications sur l'UEMOA et la CEDEAO / Financial development and economic growth : theory and evidence from WAEMU and ECOWAS areas

Barry, Mamadou Diang 03 April 2012 (has links)
Dans cette thèse, nous étudions empiriquement les liens de causalité, au sens de Granger, entre le développement financier et la croissance économique dans le cadre de l'UEMOA et de la CEDEAO. La plupart des études dans ce domaine sont réalisées dans les domaine temporel. Ici, nous associons les domaines temporel et fréquentiel par l'utilisation de modèles multivectoriels autorégressifs. Pour ce faire, nous utilisons la méthode de décomposition de Geweke (1982, 1984) améliorée par Chen et al. (2008) afin d'obtenir, en plus des relations causales temporelles et fréquentielles, les causalités instantanées et la dépendance. Cette thèse apporte aussi une contribution théorique en proposant une méthode de calcul des p-values plus adaptée aux échantillons de petite taille. Les applications portent d'abord sur les relations causales entre finance et croissance dans les domaines temporel et spectral. Ensuite, nous examinons l'influence de l'inflation sur ces relations. Enfin, nous étudions les relations causales entre croissance et Investissements Directs Etrangers (IDE) conditionnellement au développement financier et à l'ouverture économique. / The framework of Geweke (1982, 1984) improved by Chen et al. (2008)is used in this thesis to conduct Granger causality between finance and growth in the context of West Africa. We adopt the time - and frequency- approaches to bring out instantaneous causality and dependence by employing vector autoregressive models. In this work, we propose p-values computations more suitable for small sample size. Empirical investigations examine, successively, causal links between finance and growth, the impact of inflation on these links, and the conditional relationships between growth and Foreign Direct Investment (FDI) to financial development and economic openness.
16

Conception de PLA CMOS

Dandache, Abbas 09 July 1986 (has links) (PDF)
Etude des PLA CMOS. Les 4 aspects suivants sont développés : ― performance électrique: spécification d'évaluation électrique et temporelle de PLA par une technique hybride estimation-simulation basée sur la recherche du chemin critique d'E/S dans le PLA; ― distribution des types de pannes en fin de fabrication et leurs manifestations électriques et logiques. Une approche vers le test de PLA CMOS est également présentée; ― amélioration du rendement de fabrication par la conception de PLA reconfigurable (ajout de lignes supplémentaires; ― partitionnement de PLA en vue de réduire la surface, le temps de réponse, et de faciliter la reconfiguration et l'interconnexion avec les blocs voisins
17

Détection et quantification automatiques de processus évolutifs dans des images médicales tridimensionnelles : application à la sclérose en plaques

Rey, David 23 October 2002 (has links) (PDF)
L'étude des processus évoluant au cours du temps, comme les lésions de sclérose en plaques, peut dans certains cas être une aide considérable au diagnostic. Elle peut aussi servir au suivi d'un patient pour surveiller l'évolution de sa pathologie ou pour étudier les effets d'un nouveau traitement. Notre travail a tout d'abord consisté à choisir et à appliquer des prétraitements sur des séries d'images issues de l'imagerie par résonance magnétique (IRM) de patients atteints de sclérose en plaques ; ceci est nécessaire lorsqu'on veut mener une analyse temporelle automatique. Nous avons ensuite pu développer des méthodes de détection et de quantification des zones évolutives dans des ces images. Une première étude repose sur la comparaison de deux images en utilisant un champ de déplacements apparents d'une image vers l'autre. Ce champ de vecteurs peut être analysé par le biais d'opérateurs différentiels tels que le jacobien. Il est également possible d'extraire une segmentation des régions évolutives en 3D+t avec une telle analyse. Avec cette approche, on suppose que chaque point a une intensité fixe, et qu'il a un mouvement apparent. Une seconde étude consiste à mener une analyse statistique rétrospective sur une série complète d'images (typiquement plus de dix), en s'appuyant sur un modèle paramétrique de zone évolutive. Dans notre cas, les points dont la variation temporelle de l'intensité est significativement due à une lésion sont détectés. Les méthodes statistiques utilisées permettent de prendre en compte la cohérence spatiale des images. Pour cette seconde approche, on suppose que chaque point est immobile et que son intensité varie au cours du temps. Ces travaux ont été réalisés avec plusieurs partenaires cliniques afin de mener une étude expérimentale de nos algorithmes sous le contrôle d'experts médicaux, mais aussi d'entamer un travail de validation clinique.
18

Analyse spatio-temporelle de l'évolution des marais à scirpe de l'habitat migratoire de la Grande Oie des neiges à l'aide de l'imagerie IKONOS et de photographies aériennesh[ressource électronique] /

Allard, Matthieu. January 1900 (has links)
Thèse (M.Sc.)--Université de Sherbrooke (Canada), 2008. / Titre de l'écran-titre (visionné le 10 sept. 2009). In ProQuest dissertations and theses. Publié aussi en version papier.
19

Fusion tardive asynchrone appliquée à la reconnaissance des gestes / Asyncronous late fusion applied to gesture recognition

Saade, Philippe 11 May 2017 (has links)
Dans cette thèse, nous nous intéressons à la reconnaissance de l'activité humaine. Nous commençons par proposer notre propre définition d'une action : une action est une séquence prédéfinie de gestes simples et concaténés. Ainsi, des actions similaires sont composées par les mêmes gestes simples. Chaque réalisation d'une action (enregistrement) est unique. Le corps humain et ses articulations vont effectuer les mêmes mouvements que celles d'un enregistrement de référence, avec des variations d'amplitude et de dynamique ne devant pas dépasser certaines limites qui conduiraient à un changement complet d'action. Pour effectuer nos expérimentations, nous avons capturé un jeu de données contenant des variations de base, puis fusionné certains enregistrements avec d'autres actions pour former un second jeu induisant plus de confusion au cours de la classification. Ensuite, nous avons capturé trois autres jeux contenant des propriétés intéressantes pour nos expérimentations avec la Fusion Tardive Asynchrone (ou Asynchronous Late Fusion notée ALF). Nous avons surmonté le problème des petits jeux non discriminants pour la reconnaissance d'actions en étendant un ensemble d'enregistrements effectués par différentes personnes et capturés par une caméra RGB-D. Nous avons présenté une nouvelle méthode pour générer des enregistrements synthétiques pouvant être utilisés pour l'apprentissage d'algorithmes de reconnaissance de l'activité humaine. La méthode de simulation a ainsi permis d'améliorer les performances des différents classifieurs. Un aperçu général de la classification des données dans un contexte audiovisuel a conduit à l'idée de l'ALF. En effet, la plupart des approches dans ce domaine classifient les flux audio et vidéo séparément, avec des outils différents. Chaque séquence temporelle est analysée séparément, comme dans l'analyse de flux audiovisuels, où la classification délivre des décisions à des instants différents. Ainsi, pour déduire la décision finale, il est important de fusionner les décisions prises séparément, d'où l'idée de la fusion asynchrone. Donc, nous avons trouvé intéressant d'appliquer l'ALF à des séquences temporelles. Nous avons introduit l'ALF afin d'améliorer la classification temporelle appliquée à des algorithmes de fusion tardive tout en justifiant l'utilisation d'un modèle asynchrone lors de la classification des données temporelles. Ensuite, nous avons présenté l'algorithme de l'ALF et les paramètres utilisés pour l'optimiser. Enfin, après avoir mesuré les performances de classifications avec différents algorithmes et jeux de données, nous avons montré que l'ALF donne de meilleurs résultats qu'une solution synchrone simple. Etant donné qu'il peut être difficile d'identifier les jeux de données compatibles avec l'ALF, nous avons construit des indicateurs permettant d'en extraire des informations statistiques. / In this thesis, we took interest in human action recognition. Thus, it was important to define an action. We proposed our own definition: an action is a predefined sequence of concatenated simple gestures. The same actions are composed of the same simple gestures. Every performance of an action (recording) is unique. Hence, the body and the joints will perform the same movements as the reference recording, with changes of dynamicity of the sequence and amplitude in the DOF. We note that the variations in the amplitude and dynamicity must not exceed certain boundaries in order not to lead to entirely different actions. For our experiments, we captured a dataset composed of actions containing basic variations. We merged some of those recordings with other actions to form a second dataset, consequently inducing more confusion than the previous one during the classification. We also captured three other datasets with properties that are interesting for our experimentations with the ALF (Asynchronous Late Fusion). We overcame the problem of non-discriminatory actions datasets for action recognition by enlarging a set of recordings performed by different persons and captured by an RGB-D camera. We presented a novel method for generating synthetic recordings, for training action recognition algorithms. We analyzed the parameters of the method and identified the most appropriate ones, for the different classifiers. The simulation method improved the performances while classifying different datasets. A general overview of data classification starting from the audio-visual context led to the ALF idea. In fact, most of the approaches in the domain classify sound and video streams separately with different tools. Every temporal sequence from a recording is analyzed distinctly, as in audiovisual stream analysis, where the classification outputs decisions at various time instants. Therefore, to infer the final decision, it is important to fuse the decisions that were taken separately, hence the idea of the asynchronous fusion. As a result, we found it interesting to implement the ALF in temporal sequences. We introduced the ALF model for improving temporal events classification applied on late fusion classification algorithms. We showed the reason behind the use of an asynchronous model when classifying datasets with temporal properties. Then, we introduced the algorithm behind the ALF and the parameters used to tune it. Finally, according to computed performances from different algorithms and datasets, we showed that the ALF improves the results of a simple Synchronous solution in most of the cases. As it can be difficult for the user of the ALF solution to determine which datasets are compatible with the ALF, we built indicators to compare the datasets by extracting statistical information from the recordings. We developed indexes: the ASI and the ASIP, combined into a final index (the ASIv) to provide information concerning the compatibility of the dataset with the ALF. We evaluated the performances of the ALF on the segmentation of action series and compared the results between synchronous and ALF solutions. The method that we proposed increased the performances. We analyzed the human movement and gave a general definition of an action. Later, we improved this definition and proposed a "visual definition" of an action. With the aid of the ALF model, we focus on the parts and joints of an action that are the most discriminant and display them in an image. In the end, we proposed multiple paths as future studies. The most important ones are : - Working on a process to find the ALF's number of parts using the ASIv. - Reducing the complexity by finding the discriminant joints and features thanks to the ALF properties - Studying the MD-DTW features in-depth since the algorithm depends on the choice of the features - Implementing a DNN for comparison purposes - Developing the confidence coefficient.
20

Timing verification in transaction modeling

Tsikhanovich, Alena 12 1900 (has links)
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application. / Hardware/Software (Hw/Sw) systems are likely to become essential in all aspects of everyday life. The increasing penetration of Hw/Sw systems in products and services creates a necessity of their efficient development. However, the productive design of these systems is limited by several factors, some of them being the increasing complexity of applications, the increasing degree of integration, the heterogeneous nature of products and services as well as the shrinking of the time-to-market delay. Transaction Level Modeling (TLM) paradigm is considered as one of the most promising simulation paradigms to break down the design complexity by allowing the exploration and validation of design alternatives at high levels of abstraction. This research proposes a timing expression methodology in TLM based on temporal constraints analysis. We propose to use a combination of two paradigms to accelerate the design process: TLM on one hand and a methodology to express timing between different transactions on the other hand. Using a timing specification model and underlining timing constraints verification algorithms can decrease the time needed for verification by simulation. Combining in one framework the simulation and analytical design exploration methods can improve the analytical power of design verification and validation. We have proposed a new timing verification algorithm based on the linearization procedure and an optimization technique to improve its efficiency. We have completed the mathematical representation of all constraint types discussed in the literature creating in this way a unified timing specification methodology that can be used in the expression of a wider class of applications than previously presented ones. We have developed the methods for communication structure exploration and refinement that permitted us to apply the timing verification algorithms in system exploration at different TLM levels. As there are many definitions of TLM and many development environments proposing TLM in their design cycle with several pro and contra, in the context of our research we define a hardware/software (Hw/Sw) specification and simulation methodology which supports TLM in such a way that several modeling concepts can be seen separately. Relying on the use of modern software engineering technologies such as XML, XSLT, XSD, object oriented programming and others supported by the .Net Framework, an approach that makes an intermediate design model reuse possible in order to cope with time-to-market constraint is presented. The proposed TLM design methodology provides a general approach in system modeling that separates various application modeling aspects from system specification: computational models, used in application modeling, supported by the language used for the functional specification and provided by simulator. As a result, in the system model we can clearly identify system functionality without details related to the development platform thereby leading to a better “portability” of the application model.

Page generated in 0.0806 seconds