Spelling suggestions: "subject:"3analyse temporelle."" "subject:"analanalyse temporelle.""
11 |
Encodage et reproduction d'intervalles de temps : interférence de traitement non temporelChérif, Lobna 11 June 2021 (has links)
Dans la présente étude, l’effet de traitement non temporel sur la tâche de reproduction d’intervalles de temps est testé dans quatre expériences. Trois tâches non temporelles nécessitant l’encodage ou la récupération d’information en mémoire ainsi qu’une tâche d’interruption d’estimation temporelle sont combinées à une tâche de reproduction temporelle nécessitant l’encodage et la reproduction de durées (environ 2 secondes). Les résultats obtenus révèlent que les tâches non temporelles affectent davantage la phase de reproduction que la phase d’encodage de durées suggérant ainsi que l’interférence du traitement non temporel avec la reproduction temporelle simultanée diffère selon que le traitement prenne place durant la phase d’encodage ou la phase de reproduction. Une hypothèse explicative est proposée selon laquelle l’interférence du traitement non temporel avec l’estimation temporelle concurrente varie selon les processus impliqués et les ressources requises dans les deux phases de la tâche temporelle. L’ensemble des résultats est interprété dans le cadre des modèles d’accumulation de l’information temporelle.
|
12 |
Discrimination levels and perceived duration of intra- and intermodal short time intervalsAzari Pishkenari, Leila 05 April 2024 (has links)
Cette étude porte sur l’effet de l’intermodalité sur la discrimination de courts intervalles temporels. Chaque intervalle à discriminer est délimité par deux brefs stimuli sensoriels qui sont issus d’une même modalité sensorielle (intervalle intramodal) ou de modalités sensorielles différentes (intervalle intermodal). Une série de six expériences, chacune comprenant huit sessions expérimentales, a été réalisée. Une tâche de bissection temporelle a été utilisée dans chacune des expériences de l'étude, sur la base de laquelle on pouvait estimer, pour chaque participant dans chaque condition expérimentale, la sensibilité ou niveau de discrimination (la fraction de Weber) et la durée perçue (l'erreur constante). Selon la loi de Weber, la différence minimale nécessaire pour distinguer deux stimuli (sensibilité ou seuil différentiel obtenu sur la base de fonctions psychométriques découlant de la tâche de bissection) dépend de leur magnitude. Le ratio du seuil différentiel à la magnitude devrait être constant. Aussi, plus élevée est la fraction de Weber, moins bon est le niveau de discrimination. Les magnitudes (durées standards) à l’étude étaient de 300 et 900 ms. La durée perçue est évaluée à l’aide de l'erreur constante qui, elle, est mesurée en soustrayant le point d'égalité subjective (PSE, sur chaque fonction psychométrique) de la valeur d’un des intervalles standards (300 ms ou 900 ms). Une valeur inférieure de l’erreur constante signifie que la durée est perçue plus souvent comme "courte". Il y avait deux séries de trois expériences. Dans la première série, pour une expérience donnée, la modalité sensorielle du premier marqueur délimitant l’intervalle était la même (condition fixe) et la modalité du second marqueur était variable. Dans la deuxième série, c'était le deuxième marqueur qui, dans une expérience donnée, restait de la même modalité sensorielle et le premier marqueur était variable. Les marqueurs peuvent être auditifs, visuels ou tactiles. Dans les huit sessions de chaque expérience, il y avait quatre sessions pour chacune des deux conditions de durée standard. Dans chaque expérience, il y avait des conditions de « certitude » et « d’incertitude » relativement à l’origine modale des marqueurs à chaque essai. Les modalités sensorielles utilisées dans chaque étude étaient auditive (A), visuelle (V) et tactile (T). Les résultats montrent que les intervalles intramodaux sont généralement mieux discriminés que les intervalles intermodaux. Aussi, les intervalles de 900 ms sont mieux discriminés (fraction de Weber plus basse) que ceux de 300 ms dans toutes les conditions de marquage intermodal, mais pas dans les conditions de marquage intramodal où les fractions de Weber demeurent généralement constantes. Le fait que les fractions de Weber soient plus élevées à 300 qu’à 900 ms est compatible avec la forme généralisée de la loi de Weber qui prend en considération le fait que la variance d’origine non temporelle dans le processus de discrimination a plus de poids avec les intervalles courts qu’avec les intervalles longs. Que les participants connaissent la modalité des marqueurs (certitude) ou non, a peu ou pas d’effet sur le niveau de discrimination. Pour la durée perçue, les résultats révèlent essentiellement ce qui suit. Hormis quelques exceptions, les intervalles intramodaux sont jugés plus courts que les intervalles intermodaux. Dans la comparaison des conditions intermodales, lorsque l’incertitude est placée sur le premier marqueur, il n’y a pas de différences significatives entre les conditions TA et VA intervalles ou entre les conditions AV et TV, mais les intervalles AT sont perçus comme étant plus longs que les intervalles VT. L’ensemble de ces résultats ne permet pas d’expliquer les différentes durées perçues avec les différents intervalles intermodaux sur la base de la vitesse nécessaire pour détecter le signal délimitant un intervalle donné. Pour rendre compte partiellement des différents résultats, on peut s’appuyer sur le modèle de la barrière attentionnelle (Attentional Gate Model - AGM). L’AGM est un modèle d’horloge interne de type pacemaker-accumulateur, le premier module émettant des impulsions dont le cumul détermine la durée perçue (Zakay & Block, 1997). L'AGM contient une barrière et un interrupteur, tous deux sous le contrôle de l’attention. L’efficacité plus grande (plus grande sensibilité) en conditions intramodales qu’en conditions intermodales proviendrait de l’efficacité du processus de l’interrupteur puisque dans les conditions intramodales, il n’y a pas de déplacement attentionnel d’une modalité à l’autre. Le fait que les intervalles intramodaux, en condition d’incertitude, soient souvent perçus comme étant plus courts que les intervalles intermodaux s’expliquerait par le fait que sans déplacement attentionnel, le deuxième marqueur d’un intervalle intramodal serait détecté plus rapidement que le deuxième marqueur d’un intervalle intermodal. Cependant, cette explication rencontre une certaine limite si on considère que dans la plupart des cas, que l’incertitude soit placée sur le premier ou le deuxième marqueur, le niveau de discrimination est peu affecté par celle-ci. / This study examines the effect of intermodality on the discrimination of short time intervals. Every interval in the study is marked by two short sensory stimuli, each of which comes from either the same sensory modality (intramodal interval) or different sensory modalities (intermodal interval). A series of six experiments, each comprising eight experimental sessions, was carried out. A time bisection task was used in each of the experiments, based on which one could estimate for each participant in each experimental condition, the sensitivity or level of discrimination (the Weber fraction), and the perceived duration (the constant error). According to Weber’s law, the minimum difference necessary to distinguish two stimuli (sensitivity or differential threshold obtained based on psychometric functions arising from the bisection task) depends on their magnitude. The ratio of the threshold difference to magnitude, based on Weber’s law, should remain constant. Also, a higher Weber fraction means a worse level of discrimination. The magnitudes (standard durations) under study were 300 and 900 ms. The perceived duration is evaluated using the constant error, which is measured by subtracting the Point of Subjective Equality (PSE, on each psychometric function) from the value of one of the standard intervals (300 ms or 900 ms). A lower value of the constant error means that the duration is more often perceived as “short”. There were two sets of three experiments in the study. In the first series, for a given experiment, the sensory modality of the first marker delimiting the interval was the same (fixed condition), and the modality of the second marker was variable. In the second series, it was the second marker which, in a given experiment, remained of the same sensory modality whereas the first marker was variable. Markers could be auditory, visual, or tactile. In the eight sessions of each experiment, there were four sessions for each of the two standard duration conditions. In each experiment, there were also “certainty” and “uncertainty” conditions relative to the modal origin of the markers on each trial. The sensory modalities used in each study were again auditory (A), visual (V), and tactile (T). The results show that intramodal intervals are generally better discriminated (have a lower Weber fraction) than intermodal intervals. Also, the 900 ms intervals are better discriminated than those of 300 ms in all the intermodal marking conditions. In the intramodal marking conditions, however, the Weber fractions generally remained constant. The fact that the Weber fractions are higher at 300 than 900 ms is compatible with the generalized form of Weber’s law, which takes into account the fact that the variance of non-temporal origin in the discrimination process has more weight with short intervals than with long intervals. Whether or not participants know the marker's modality (certainty) has little or no effect on the level of discrimination. For the perceived duration, the results essentially revealed the following. Except for a few exceptions, intramodal intervals were considered to be shorter than intermodal intervals. In the comparison of the intermodal conditions, when the uncertainty was placed on the first marker, there were no significant differences between the conditions TA and VA intervals or between the conditions AV and TV, but the intervals AT were perceived as being longer than the VT intervals. To account for the different results in perceived durations, we can rely on the Attentional Gate Model (AGM). The AGM is an internal clock model of the pacemaker-accumulator type, the first module emitting pulses whose accumulation determines the perceived duration (Zakay & Block, 1997). The AGM contains a barrier and a switch, both under attention control. Therefore, according to this model, the greater efficiency (higher sensitivity) in intramodal conditions than in intermodal conditions could come from the efficiency of the switch process. Because in intramodal conditions, there is no attentional displacement from one modality to the other. The fact that intramodal intervals, under conditions of uncertainty, are often perceived as shorter than intermodal intervals could be explained by the fact that without attentional displacement, the second marker of an intramodal interval is detected more quickly than the second intermodal interval marker. However, this explanation encounters certain limits if we consider that, in most cases, whether uncertainty is placed on the first or second marker, the level of discrimination is little affected by it.
|
13 |
Examen de la contribution des habiletés de traitement temporel à la performance en lecture durant l'enfanceMalenfant, Nathalie 13 April 2018 (has links)
L'objectif principal de cette thèse consiste à explorer les mécanismes à la base de l'association entre le traitement temporel et la performance en lecture durant l'enfance. La contribution de la conscience phonologique à cette association est examinée. Le vocabulaire et l'intelligence non-verbale sont également considérés à titre de facteurs explicatifs de l'association entre le traiterpent temporel, la conscience phonologique et la lecture. Les objectifs spécifiques sont de 1) tester l 'hypothèse d'une médiation de l'association entre le traitement temporel et la lecture par la conscience phonologique, 2) investiguer les influences génétiques et environnementales spécifiques et communes aux phénotypes à l'étude et 3) examiner la contribution du vocabulaire et de l'intelligence nonverbale aux associations entre le traitement temporel, la conscience phonologique et la lecture, tant sur le plan phénotypique qu'étiologique. Deux études empiriques constituent le corps de cette thèse. La première vise à tester le modèle médiationnel. Les résultats montrent que 44% de l'association entre le traitement temporel et la performance en lecture passe par la conscience phonologique, indépendamment de l'intelligence non-verbale. Le vocabulaire n'est que faiblement impliqué dans cette médiation partiellè. La seconde étude a pour but de caractériser les étiologies spécifique et commune aux phénotypes ciblés. Les différences individuelles sur le plan du traitement temporel sont, tout comme celles pour la conscience phonologique et la lecture, fortement influencées par des gènes additifs. Qui plus est, les résultats révèlent un facteur génétique commun à ces trois phénotypes. Cette base génétique commune est spécifique à ces phénotypes, puisqu'elle n'influence que faiblement le vocabulaire et l'intelligence non-verbale. L'effet de gènes ayant une portée générale sur la cognition est donc insuffisant pour expliquer leur association.
|
14 |
Spatial and temporal patterns of plankton in European coastal waters : analysis and comparison of zooplankton time series / Variations spatiales et temporelles du plancton dans les eaux côtières européennes : analyse et comparaison de séries temporelles de zooplanctonEloire, Damien 09 July 2010 (has links)
Le changement climatique est incontestable et affecte les océans. L'observation à long terme d'indicateurs comme le plancton peut permettre l'étude de ces changements. Le suivi du plancton dans les eaux côtières d'Europe représente une source de données importante actuellement sous-exploitée et sur laquelle cette étude est basée. Des outils analytiques ont d'abord été conçus pour résoudre des divergences taxonomiques entre les données et pour réaliser l'analyse temporelle. L'étude du plancton à L4 de 1998 à 2007 révèle de profonds changements dans la composition phytoplanctonique des blooms de printemps et d'automne, et des variations à long terme dans l'abondance des taxa dominants du zooplancton. Le phytoplancton gouverne la succession saisonnière des larves méroplanctoniques. Les changements de température de surface et de vent contrôlent les variations temporelles des communautés planctoniques. Les variations spatio-temporelles du zooplancton ont été comparées à 4 sites de 1998 à 2007 : Ston (Mer du Nord), L4 (Manche), MC (Mer Tyrrhénienne ), et C1 (Mer Adriatique). La structure des communautés est globalement stable, la saisonnalité étant la principale source de variabilité à long terme. La chlorophylle a et le vent expliquent les variations de la communauté zooplanctonique à Ston et L4 alors que c'est la température à MC et C1. Cette étude confirme l'extrême adaptabilité des communautés zooplanctoniques à un environnement variable. Elle souligne l'importance de facteurs tels que taxonomie et échelle temporelle pour l'analyse de séries, et la nécessité de maintenir les séries à long terme pour le suivi de futurs changements dans le contexte du changement climatique. / Climate change is unequivocal and dramatic changes are under way in the world's oceans. Long-term observations of indicators such as plankton can provide a better understanding of these changes. Considerable efforts have been made to monitor plankton in European coastal waters and have produced a large amount of datasets yet to be fully exploited. Analytic tools were first developed to solve taxonomic discrepancies in datasets and for temporal analyses. Time series analysis of plankton at L4 from 1988 to 2007 reveals profound changes in the composition of the spring and autumn phytoplankton blooms, and long-term variations in abundance of the dominant zooplankton taxa. Phytoplankton is driving the seasonal succession of meroplanktonic larvae. Changes in sea surface temperature and wind conditions control temporal patterns of plankton communities. Spatio-temporal patterns of zooplankton are compared at 4 sites: Ston (northern North Sea), L4 (wes tern English Channel), MC (Tyrrhenian Sea), and C1 (Adriatic Sea) from 1998 to 2007. The communities structure is on average stable and seasonal variations are the main source of long-term variability. Chlorophyll a and wind are responsible for the community patterns observed at Ston and L4 whereas temperature is the main driver at MC and C1. This study supports evidences of the extreme flexibility of zooplankton communities in adjusting to a variable environment. We highlighted the importance of factors such as taxonomy and temporal scale on time series analysis, and the necessity of maintaining long-term series to monitor future changes in the context of climate change.
|
15 |
Développement financier et croissance économique : études théoriques et applications sur l'UEMOA et la CEDEAO / Financial development and economic growth : theory and evidence from WAEMU and ECOWAS areasBarry, Mamadou Diang 03 April 2012 (has links)
Dans cette thèse, nous étudions empiriquement les liens de causalité, au sens de Granger, entre le développement financier et la croissance économique dans le cadre de l'UEMOA et de la CEDEAO. La plupart des études dans ce domaine sont réalisées dans les domaine temporel. Ici, nous associons les domaines temporel et fréquentiel par l'utilisation de modèles multivectoriels autorégressifs. Pour ce faire, nous utilisons la méthode de décomposition de Geweke (1982, 1984) améliorée par Chen et al. (2008) afin d'obtenir, en plus des relations causales temporelles et fréquentielles, les causalités instantanées et la dépendance. Cette thèse apporte aussi une contribution théorique en proposant une méthode de calcul des p-values plus adaptée aux échantillons de petite taille. Les applications portent d'abord sur les relations causales entre finance et croissance dans les domaines temporel et spectral. Ensuite, nous examinons l'influence de l'inflation sur ces relations. Enfin, nous étudions les relations causales entre croissance et Investissements Directs Etrangers (IDE) conditionnellement au développement financier et à l'ouverture économique. / The framework of Geweke (1982, 1984) improved by Chen et al. (2008)is used in this thesis to conduct Granger causality between finance and growth in the context of West Africa. We adopt the time - and frequency- approaches to bring out instantaneous causality and dependence by employing vector autoregressive models. In this work, we propose p-values computations more suitable for small sample size. Empirical investigations examine, successively, causal links between finance and growth, the impact of inflation on these links, and the conditional relationships between growth and Foreign Direct Investment (FDI) to financial development and economic openness.
|
16 |
Conception de PLA CMOSDandache, Abbas 09 July 1986 (has links) (PDF)
Etude des PLA CMOS. Les 4 aspects suivants sont développés : ― performance électrique: spécification d'évaluation électrique et temporelle de PLA par une technique hybride estimation-simulation basée sur la recherche du chemin critique d'E/S dans le PLA; ― distribution des types de pannes en fin de fabrication et leurs manifestations électriques et logiques. Une approche vers le test de PLA CMOS est également présentée; ― amélioration du rendement de fabrication par la conception de PLA reconfigurable (ajout de lignes supplémentaires; ― partitionnement de PLA en vue de réduire la surface, le temps de réponse, et de faciliter la reconfiguration et l'interconnexion avec les blocs voisins
|
17 |
Détection et quantification automatiques de processus évolutifs dans des images médicales tridimensionnelles : application à la sclérose en plaquesRey, David 23 October 2002 (has links) (PDF)
L'étude des processus évoluant au cours du temps, comme les lésions de sclérose en plaques, peut dans certains cas être une aide considérable au diagnostic. Elle peut aussi servir au suivi d'un patient pour surveiller l'évolution de sa pathologie ou pour étudier les effets d'un nouveau traitement. Notre travail a tout d'abord consisté à choisir et à appliquer des prétraitements sur des séries d'images issues de l'imagerie par résonance magnétique (IRM) de patients atteints de sclérose en plaques ; ceci est nécessaire lorsqu'on veut mener une analyse temporelle automatique. Nous avons ensuite pu développer des méthodes de détection et de quantification des zones évolutives dans des ces images. Une première étude repose sur la comparaison de deux images en utilisant un champ de déplacements apparents d'une image vers l'autre. Ce champ de vecteurs peut être analysé par le biais d'opérateurs différentiels tels que le jacobien. Il est également possible d'extraire une segmentation des régions évolutives en 3D+t avec une telle analyse. Avec cette approche, on suppose que chaque point a une intensité fixe, et qu'il a un mouvement apparent. Une seconde étude consiste à mener une analyse statistique rétrospective sur une série complète d'images (typiquement plus de dix), en s'appuyant sur un modèle paramétrique de zone évolutive. Dans notre cas, les points dont la variation temporelle de l'intensité est significativement due à une lésion sont détectés. Les méthodes statistiques utilisées permettent de prendre en compte la cohérence spatiale des images. Pour cette seconde approche, on suppose que chaque point est immobile et que son intensité varie au cours du temps. Ces travaux ont été réalisés avec plusieurs partenaires cliniques afin de mener une étude expérimentale de nos algorithmes sous le contrôle d'experts médicaux, mais aussi d'entamer un travail de validation clinique.
|
18 |
Analyse spatio-temporelle de l'évolution des marais à scirpe de l'habitat migratoire de la Grande Oie des neiges à l'aide de l'imagerie IKONOS et de photographies aériennesh[ressource électronique] /Allard, Matthieu. January 1900 (has links)
Thèse (M.Sc.)--Université de Sherbrooke (Canada), 2008. / Titre de l'écran-titre (visionné le 10 sept. 2009). In ProQuest dissertations and theses. Publié aussi en version papier.
|
19 |
Fusion tardive asynchrone appliquée à la reconnaissance des gestes / Asyncronous late fusion applied to gesture recognitionSaade, Philippe 11 May 2017 (has links)
Dans cette thèse, nous nous intéressons à la reconnaissance de l'activité humaine. Nous commençons par proposer notre propre définition d'une action : une action est une séquence prédéfinie de gestes simples et concaténés. Ainsi, des actions similaires sont composées par les mêmes gestes simples. Chaque réalisation d'une action (enregistrement) est unique. Le corps humain et ses articulations vont effectuer les mêmes mouvements que celles d'un enregistrement de référence, avec des variations d'amplitude et de dynamique ne devant pas dépasser certaines limites qui conduiraient à un changement complet d'action. Pour effectuer nos expérimentations, nous avons capturé un jeu de données contenant des variations de base, puis fusionné certains enregistrements avec d'autres actions pour former un second jeu induisant plus de confusion au cours de la classification. Ensuite, nous avons capturé trois autres jeux contenant des propriétés intéressantes pour nos expérimentations avec la Fusion Tardive Asynchrone (ou Asynchronous Late Fusion notée ALF). Nous avons surmonté le problème des petits jeux non discriminants pour la reconnaissance d'actions en étendant un ensemble d'enregistrements effectués par différentes personnes et capturés par une caméra RGB-D. Nous avons présenté une nouvelle méthode pour générer des enregistrements synthétiques pouvant être utilisés pour l'apprentissage d'algorithmes de reconnaissance de l'activité humaine. La méthode de simulation a ainsi permis d'améliorer les performances des différents classifieurs. Un aperçu général de la classification des données dans un contexte audiovisuel a conduit à l'idée de l'ALF. En effet, la plupart des approches dans ce domaine classifient les flux audio et vidéo séparément, avec des outils différents. Chaque séquence temporelle est analysée séparément, comme dans l'analyse de flux audiovisuels, où la classification délivre des décisions à des instants différents. Ainsi, pour déduire la décision finale, il est important de fusionner les décisions prises séparément, d'où l'idée de la fusion asynchrone. Donc, nous avons trouvé intéressant d'appliquer l'ALF à des séquences temporelles. Nous avons introduit l'ALF afin d'améliorer la classification temporelle appliquée à des algorithmes de fusion tardive tout en justifiant l'utilisation d'un modèle asynchrone lors de la classification des données temporelles. Ensuite, nous avons présenté l'algorithme de l'ALF et les paramètres utilisés pour l'optimiser. Enfin, après avoir mesuré les performances de classifications avec différents algorithmes et jeux de données, nous avons montré que l'ALF donne de meilleurs résultats qu'une solution synchrone simple. Etant donné qu'il peut être difficile d'identifier les jeux de données compatibles avec l'ALF, nous avons construit des indicateurs permettant d'en extraire des informations statistiques. / In this thesis, we took interest in human action recognition. Thus, it was important to define an action. We proposed our own definition: an action is a predefined sequence of concatenated simple gestures. The same actions are composed of the same simple gestures. Every performance of an action (recording) is unique. Hence, the body and the joints will perform the same movements as the reference recording, with changes of dynamicity of the sequence and amplitude in the DOF. We note that the variations in the amplitude and dynamicity must not exceed certain boundaries in order not to lead to entirely different actions. For our experiments, we captured a dataset composed of actions containing basic variations. We merged some of those recordings with other actions to form a second dataset, consequently inducing more confusion than the previous one during the classification. We also captured three other datasets with properties that are interesting for our experimentations with the ALF (Asynchronous Late Fusion). We overcame the problem of non-discriminatory actions datasets for action recognition by enlarging a set of recordings performed by different persons and captured by an RGB-D camera. We presented a novel method for generating synthetic recordings, for training action recognition algorithms. We analyzed the parameters of the method and identified the most appropriate ones, for the different classifiers. The simulation method improved the performances while classifying different datasets. A general overview of data classification starting from the audio-visual context led to the ALF idea. In fact, most of the approaches in the domain classify sound and video streams separately with different tools. Every temporal sequence from a recording is analyzed distinctly, as in audiovisual stream analysis, where the classification outputs decisions at various time instants. Therefore, to infer the final decision, it is important to fuse the decisions that were taken separately, hence the idea of the asynchronous fusion. As a result, we found it interesting to implement the ALF in temporal sequences. We introduced the ALF model for improving temporal events classification applied on late fusion classification algorithms. We showed the reason behind the use of an asynchronous model when classifying datasets with temporal properties. Then, we introduced the algorithm behind the ALF and the parameters used to tune it. Finally, according to computed performances from different algorithms and datasets, we showed that the ALF improves the results of a simple Synchronous solution in most of the cases. As it can be difficult for the user of the ALF solution to determine which datasets are compatible with the ALF, we built indicators to compare the datasets by extracting statistical information from the recordings. We developed indexes: the ASI and the ASIP, combined into a final index (the ASIv) to provide information concerning the compatibility of the dataset with the ALF. We evaluated the performances of the ALF on the segmentation of action series and compared the results between synchronous and ALF solutions. The method that we proposed increased the performances. We analyzed the human movement and gave a general definition of an action. Later, we improved this definition and proposed a "visual definition" of an action. With the aid of the ALF model, we focus on the parts and joints of an action that are the most discriminant and display them in an image. In the end, we proposed multiple paths as future studies. The most important ones are : - Working on a process to find the ALF's number of parts using the ASIv. - Reducing the complexity by finding the discriminant joints and features thanks to the ALF properties - Studying the MD-DTW features in-depth since the algorithm depends on the choice of the features - Implementing a DNN for comparison purposes - Developing the confidence coefficient.
|
20 |
Timing verification in transaction modelingTsikhanovich, Alena 12 1900 (has links)
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés.
Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM.
Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application. / Hardware/Software (Hw/Sw) systems are likely to become essential in all aspects of everyday life. The increasing penetration of Hw/Sw systems in products and services creates a necessity of their efficient development. However, the productive design of these systems is limited by several factors, some of them being the increasing complexity of applications, the increasing degree of integration, the heterogeneous nature of products and services as well as the shrinking of the time-to-market delay. Transaction Level Modeling (TLM) paradigm is considered as one of the most promising simulation paradigms to break down the design complexity by allowing the exploration and validation of design alternatives at high levels of abstraction.
This research proposes a timing expression methodology in TLM based on temporal constraints analysis. We propose to use a combination of two paradigms to accelerate the design process: TLM on one hand and a methodology to express timing between different transactions on the other hand. Using a timing specification model and underlining timing constraints verification algorithms can decrease the time needed for verification by simulation. Combining in one framework the simulation and analytical design exploration methods can improve the analytical power of design verification and validation. We have proposed a new timing verification algorithm based on the linearization procedure and an optimization technique to improve its efficiency. We have completed the mathematical representation of all constraint types discussed in the literature creating in this way a unified timing specification methodology that can be used in the expression of a wider class of applications than previously presented ones. We have developed the methods for communication structure exploration and refinement that permitted us to apply the timing verification algorithms in system exploration at different TLM levels.
As there are many definitions of TLM and many development environments proposing TLM in their design cycle with several pro and contra, in the context of our research we define a hardware/software (Hw/Sw) specification and simulation methodology which supports TLM in such a way that several modeling concepts can be seen separately. Relying on the use of modern software engineering technologies such as XML, XSLT, XSD, object oriented programming and others supported by the .Net Framework, an approach that makes an intermediate design model reuse possible in order to cope with time-to-market constraint is presented. The proposed TLM design methodology provides a general approach in system modeling that separates various application modeling aspects from system specification: computational models, used in application modeling, supported by the language used for the functional specification and provided by simulator. As a result, in the system model we can clearly identify system functionality without details related to the development platform thereby leading to a better “portability” of the application model.
|
Page generated in 0.0692 seconds