• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 448
  • 154
  • 48
  • 2
  • Tagged with
  • 634
  • 205
  • 135
  • 131
  • 120
  • 101
  • 71
  • 69
  • 68
  • 62
  • 56
  • 52
  • 48
  • 47
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Contributions to decomposition methods in stochastic optimization / Contribution aux méthodes de décomposition en optimisation stochastique

Leclere, Vincent 25 June 2014 (has links)
Le contrôle optimal stochastique (en temps discret) s'intéresse aux problèmes de décisions séquentielles sous incertitude. Les applications conduisent à des problèmes d'optimisation degrande taille. En réduisant leur taille, les méthodes de décomposition permettent le calcul numérique des solutions. Nous distinguons ici deux formes de décomposition. La emph{décomposition chaînée}, comme la Programmation Dynamique, résout successivement, des sous-problèmes de petite taille. La décomposition parallèle, comme le Progressive Hedging, consiste à résoudre itérativement et parallèlement les sous-problèmes, coordonnés par un algorithme maître. Dans la première partie de ce manuscrit, Dynamic Programming: Risk and Convexity, nous nous intéressons à la décomposition chaînée, en particulier temporelle, connue sous le nom de Programmation Dynamique. Dans le chapitre 2, nous étendons le cas traditionnel, risque-neutre, de la somme en temps des coûts, à un cadre plus général pour lequel nous établissons des résultats de cohérence temporelle. Dans le chapitre 3, nous étendons le résultat de convergence de l'algorithme SDDP (Stochastic Dual Dynamic Programming Algorithm) au cas où les fonctions de coûts (convexes) ne sont plus polyhédrales. Puis, nous nous tournons vers la décomposition parallèle, en particulier autour des méthodes de décomposition obtenues en dualisant les contraintes (contraintes spatiales presque sûres, ou de non-anticipativité). Dans la seconde partie de ce manuscrit, Duality in Stochastic Optimization, nous commençons par souligner que de telles contraintes peuvent soulever des problèmes de dualité délicats (chapitre 4).Nous établissons un résultat de dualité dans les espaces pairés $Bp{mathrm{L}^infty,mathrm{L}^1}$ au chapitre 5. Finalement, au chapitre 6, nous montrons un résultat de convergence de l'algorithme d'Uzawa dans $mathrm{L}^inftyp{Omega,cF,PP;RR^n}$, qui requière l'existence d'un multiplicateur optimal. La troisième partie de ce manuscrit, Stochastic Spatial Decomposition Methods, est consacrée à l'algorithme connu sous le nom de DADP (Dual Approximate Dynamic Programming Algorithm). Au chapitre 7, nous montrons qu'une suite de problèmes d'optimisation où une contrainte presque sûre est relaxée en une contrainte en espérance conditionnelle épi-converge vers le problème original si la suite des tribus converge vers la tribu globale. Finalement, au chapitre 8, nous présentons l'algorithme DADP, des interprétations, et des résultats de convergence basés sur la seconde partie du manuscrit / Stochastic optimal control addresses sequential decision-making under uncertainty. As applications leads to large-size optimization problems, we count on decomposition methods to tackle their mathematical analysis and their numerical resolution. We distinguish two forms of decomposition. In chained decomposition, like Dynamic Programming, the original problemis solved by means of successive smaller subproblems, solved one after theother. In parallel decomposition, like Progressive Hedging, the original problemis solved by means of parallel smaller subproblems, coordinated and updated by amaster algorithm. In the first part of this manuscript, Dynamic Programming: Risk and Convexity, we focus on chained decomposition; we address the well known time decomposition that constitutes Dynamic Programming with two questions. In Chapter 2, we extend the traditional additive in time and risk neutral setting to more general ones for which we establish time-consistency. In Chapter 3, we prove a convergence result for the Stochastic Dual Dynamic Programming Algorithm in the case where (convex) cost functions are no longer polyhedral. Then, we turn to parallel decomposition, especially decomposition methods obtained by dualizing constraints (spatial or non-anticipative). In the second part of this manuscript, Duality in Stochastic Optimization, we first point out that such constraints lead to delicate duality issues (Chapter 4).We establish a duality result in the pairing $Bp{mathrm{L}^infty,mathrm{L}^1}$ in Chapter 5. Finally, in Chapter 6, we prove the convergence of the Uzawa Algorithm in~$mathrm{L}^inftyp{Omega,cF,PP;RR^n}$.The third part of this manuscript, Stochastic Spatial Decomposition Methods, is devoted to the so-called Dual Approximate Dynamic Programming Algorithm. In Chapter 7, we prove that a sequence of relaxed optimization problems epiconverges to the original one, where almost sure constraints are replaced by weaker conditional expectation ones and that corresponding $sigma$-fields converge. In Chapter 8, we give theoretical foundations and interpretations to the Dual Approximate Dynamic Programming Algorithm
142

Capture de mouvements humains par capteurs RGB-D / Human motion capture by RGB-D sensors

Masse, Jean-Thomas 25 September 2015 (has links)
L'arrivée simultanée de capteurs de profondeur et couleur, et d'algorithmes de détection de squelettes super-temps-réel a conduit à un regain de la recherche sur la capture de mouvements humains. Cette fonctionnalité constitue un point clé de la communication Homme-Machine. Mais le contexte d'application de ces dernières avancées est l'interaction volontaire et fronto-parallèle, ce qui permet certaines approximations et requiert un positionnement spécifique des capteurs. Dans cette thèse, nous présentons une approche multi-capteurs, conçue pour améliorer la robustesse et la précision du positionnement des articulations de l'homme, et fondée sur un processus de lissage trajectoriel par intégration temporelle, et le filtrage des squelettes détectés par chaque capteur. L'approche est testée sur une base de données nouvelle acquise spécifiquement, avec une méthodologie d'étalonnage adaptée spécialement. Un début d'extension à la perception jointe avec du contexte, ici des objets, est proposée. / Simultaneous apparition of depth and color sensors and super-realtime skeleton detection algorithms led to a surge of new research in Human Motion Capture. This feature is a key part of Human-Machine Interaction. But the applicative context of those new technologies is voluntary, fronto-parallel interaction with the sensor, which allowed the designers certain approximations and requires a specific sensor placement. In this thesis, we present a multi-sensor approach, designed to improve robustness and accuracy of a human's joints positionning, and based on a trajectory smoothing process by temporal integration, and filtering of the skeletons detected in each sensor. The approach has been tested on a new specially constituted database, with a specifically adapted calibration methodology. We also began extending the approach to context-based improvements, with object perception being proposed.
143

Un générateur CP pour la vérification temporelle des contrôleurs d'interfaces

Zhang, Ying January 2001 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
144

Traitement d'ordre temporel en mémoire à court-terme et reproduction temporelle

Chérif, Lobna 02 March 2021 (has links)
Dans la présente étude, l'effet d'un traitement d'ordre temporel d'item en MCT sur la reproduction d'un intervalle de temps est testé dans deux expériences. La tâche non temporelle des participants consiste à vérifier si un chiffre indique ou non la bonne position temporelle d'une lettre cible dans un ensemble mémoire présenté au préalable. Le traitement de l'information d'item est réduit au minimum par l'utilisation d'un ensemble fermé de lettres qui ne changent pas pendant un bloc expérimental. Dans la première expérience, le traitement de l'ordre en MCT se fait pendant la phase d'encodage de l'intervalle à reproduire. Dans la deuxième expérience, le traitement de l'ordre se fait pendant la phase de reproduction. L'identification d'ordre temporel en MCT perturbe l'estimation temporelle simultanée dans des conditions où la quantité d'information d'item à traiter en mémoire est minimale. Ces résultats suggèrent que l'estimation d'un intervalle temporel et le traitement d'ordre temporel en mémoire utilisent des ressources communes.
145

Encodage et reproduction d'intervalles de temps : interférence de traitement non temporel

Chérif, Lobna 11 June 2021 (has links)
Dans la présente étude, l’effet de traitement non temporel sur la tâche de reproduction d’intervalles de temps est testé dans quatre expériences. Trois tâches non temporelles nécessitant l’encodage ou la récupération d’information en mémoire ainsi qu’une tâche d’interruption d’estimation temporelle sont combinées à une tâche de reproduction temporelle nécessitant l’encodage et la reproduction de durées (environ 2 secondes). Les résultats obtenus révèlent que les tâches non temporelles affectent davantage la phase de reproduction que la phase d’encodage de durées suggérant ainsi que l’interférence du traitement non temporel avec la reproduction temporelle simultanée diffère selon que le traitement prenne place durant la phase d’encodage ou la phase de reproduction. Une hypothèse explicative est proposée selon laquelle l’interférence du traitement non temporel avec l’estimation temporelle concurrente varie selon les processus impliqués et les ressources requises dans les deux phases de la tâche temporelle. L’ensemble des résultats est interprété dans le cadre des modèles d’accumulation de l’information temporelle.
146

Discrimination levels and perceived duration of intra- and intermodal short time intervals

Azari Pishkenari, Leila 05 April 2024 (has links)
Cette étude porte sur l’effet de l’intermodalité sur la discrimination de courts intervalles temporels. Chaque intervalle à discriminer est délimité par deux brefs stimuli sensoriels qui sont issus d’une même modalité sensorielle (intervalle intramodal) ou de modalités sensorielles différentes (intervalle intermodal). Une série de six expériences, chacune comprenant huit sessions expérimentales, a été réalisée. Une tâche de bissection temporelle a été utilisée dans chacune des expériences de l'étude, sur la base de laquelle on pouvait estimer, pour chaque participant dans chaque condition expérimentale, la sensibilité ou niveau de discrimination (la fraction de Weber) et la durée perçue (l'erreur constante). Selon la loi de Weber, la différence minimale nécessaire pour distinguer deux stimuli (sensibilité ou seuil différentiel obtenu sur la base de fonctions psychométriques découlant de la tâche de bissection) dépend de leur magnitude. Le ratio du seuil différentiel à la magnitude devrait être constant. Aussi, plus élevée est la fraction de Weber, moins bon est le niveau de discrimination. Les magnitudes (durées standards) à l’étude étaient de 300 et 900 ms. La durée perçue est évaluée à l’aide de l'erreur constante qui, elle, est mesurée en soustrayant le point d'égalité subjective (PSE, sur chaque fonction psychométrique) de la valeur d’un des intervalles standards (300 ms ou 900 ms). Une valeur inférieure de l’erreur constante signifie que la durée est perçue plus souvent comme "courte". Il y avait deux séries de trois expériences. Dans la première série, pour une expérience donnée, la modalité sensorielle du premier marqueur délimitant l’intervalle était la même (condition fixe) et la modalité du second marqueur était variable. Dans la deuxième série, c'était le deuxième marqueur qui, dans une expérience donnée, restait de la même modalité sensorielle et le premier marqueur était variable. Les marqueurs peuvent être auditifs, visuels ou tactiles. Dans les huit sessions de chaque expérience, il y avait quatre sessions pour chacune des deux conditions de durée standard. Dans chaque expérience, il y avait des conditions de « certitude » et « d’incertitude » relativement à l’origine modale des marqueurs à chaque essai. Les modalités sensorielles utilisées dans chaque étude étaient auditive (A), visuelle (V) et tactile (T). Les résultats montrent que les intervalles intramodaux sont généralement mieux discriminés que les intervalles intermodaux. Aussi, les intervalles de 900 ms sont mieux discriminés (fraction de Weber plus basse) que ceux de 300 ms dans toutes les conditions de marquage intermodal, mais pas dans les conditions de marquage intramodal où les fractions de Weber demeurent généralement constantes. Le fait que les fractions de Weber soient plus élevées à 300 qu’à 900 ms est compatible avec la forme généralisée de la loi de Weber qui prend en considération le fait que la variance d’origine non temporelle dans le processus de discrimination a plus de poids avec les intervalles courts qu’avec les intervalles longs. Que les participants connaissent la modalité des marqueurs (certitude) ou non, a peu ou pas d’effet sur le niveau de discrimination. Pour la durée perçue, les résultats révèlent essentiellement ce qui suit. Hormis quelques exceptions, les intervalles intramodaux sont jugés plus courts que les intervalles intermodaux. Dans la comparaison des conditions intermodales, lorsque l’incertitude est placée sur le premier marqueur, il n’y a pas de différences significatives entre les conditions TA et VA intervalles ou entre les conditions AV et TV, mais les intervalles AT sont perçus comme étant plus longs que les intervalles VT. L’ensemble de ces résultats ne permet pas d’expliquer les différentes durées perçues avec les différents intervalles intermodaux sur la base de la vitesse nécessaire pour détecter le signal délimitant un intervalle donné. Pour rendre compte partiellement des différents résultats, on peut s’appuyer sur le modèle de la barrière attentionnelle (Attentional Gate Model - AGM). L’AGM est un modèle d’horloge interne de type pacemaker-accumulateur, le premier module émettant des impulsions dont le cumul détermine la durée perçue (Zakay & Block, 1997). L'AGM contient une barrière et un interrupteur, tous deux sous le contrôle de l’attention. L’efficacité plus grande (plus grande sensibilité) en conditions intramodales qu’en conditions intermodales proviendrait de l’efficacité du processus de l’interrupteur puisque dans les conditions intramodales, il n’y a pas de déplacement attentionnel d’une modalité à l’autre. Le fait que les intervalles intramodaux, en condition d’incertitude, soient souvent perçus comme étant plus courts que les intervalles intermodaux s’expliquerait par le fait que sans déplacement attentionnel, le deuxième marqueur d’un intervalle intramodal serait détecté plus rapidement que le deuxième marqueur d’un intervalle intermodal. Cependant, cette explication rencontre une certaine limite si on considère que dans la plupart des cas, que l’incertitude soit placée sur le premier ou le deuxième marqueur, le niveau de discrimination est peu affecté par celle-ci. / This study examines the effect of intermodality on the discrimination of short time intervals. Every interval in the study is marked by two short sensory stimuli, each of which comes from either the same sensory modality (intramodal interval) or different sensory modalities (intermodal interval). A series of six experiments, each comprising eight experimental sessions, was carried out. A time bisection task was used in each of the experiments, based on which one could estimate for each participant in each experimental condition, the sensitivity or level of discrimination (the Weber fraction), and the perceived duration (the constant error). According to Weber’s law, the minimum difference necessary to distinguish two stimuli (sensitivity or differential threshold obtained based on psychometric functions arising from the bisection task) depends on their magnitude. The ratio of the threshold difference to magnitude, based on Weber’s law, should remain constant. Also, a higher Weber fraction means a worse level of discrimination. The magnitudes (standard durations) under study were 300 and 900 ms. The perceived duration is evaluated using the constant error, which is measured by subtracting the Point of Subjective Equality (PSE, on each psychometric function) from the value of one of the standard intervals (300 ms or 900 ms). A lower value of the constant error means that the duration is more often perceived as “short”. There were two sets of three experiments in the study. In the first series, for a given experiment, the sensory modality of the first marker delimiting the interval was the same (fixed condition), and the modality of the second marker was variable. In the second series, it was the second marker which, in a given experiment, remained of the same sensory modality whereas the first marker was variable. Markers could be auditory, visual, or tactile. In the eight sessions of each experiment, there were four sessions for each of the two standard duration conditions. In each experiment, there were also “certainty” and “uncertainty” conditions relative to the modal origin of the markers on each trial. The sensory modalities used in each study were again auditory (A), visual (V), and tactile (T). The results show that intramodal intervals are generally better discriminated (have a lower Weber fraction) than intermodal intervals. Also, the 900 ms intervals are better discriminated than those of 300 ms in all the intermodal marking conditions. In the intramodal marking conditions, however, the Weber fractions generally remained constant. The fact that the Weber fractions are higher at 300 than 900 ms is compatible with the generalized form of Weber’s law, which takes into account the fact that the variance of non-temporal origin in the discrimination process has more weight with short intervals than with long intervals. Whether or not participants know the marker's modality (certainty) has little or no effect on the level of discrimination. For the perceived duration, the results essentially revealed the following. Except for a few exceptions, intramodal intervals were considered to be shorter than intermodal intervals. In the comparison of the intermodal conditions, when the uncertainty was placed on the first marker, there were no significant differences between the conditions TA and VA intervals or between the conditions AV and TV, but the intervals AT were perceived as being longer than the VT intervals. To account for the different results in perceived durations, we can rely on the Attentional Gate Model (AGM). The AGM is an internal clock model of the pacemaker-accumulator type, the first module emitting pulses whose accumulation determines the perceived duration (Zakay & Block, 1997). The AGM contains a barrier and a switch, both under attention control. Therefore, according to this model, the greater efficiency (higher sensitivity) in intramodal conditions than in intermodal conditions could come from the efficiency of the switch process. Because in intramodal conditions, there is no attentional displacement from one modality to the other. The fact that intramodal intervals, under conditions of uncertainty, are often perceived as shorter than intermodal intervals could be explained by the fact that without attentional displacement, the second marker of an intramodal interval is detected more quickly than the second intermodal interval marker. However, this explanation encounters certain limits if we consider that, in most cases, whether uncertainty is placed on the first or second marker, the level of discrimination is little affected by it.
147

Mesures de réflectométrie prises avec un interféromètre à peignes de fréquence

Taurand, Geneviève 17 April 2018 (has links)
Les développements technologiques et scientifiques des dernières années dans le domaine des lasers à impulsions ont permis l'essor d'une toute nouvelle méthode de détection multihétérodyne utilisant deux peignes de fréquence. Un petit nombre de groupes de recherche ont commencé à étudier diverses applications possibles avec ce que l'on appelle aujourd'hui l'interféromètre à peignes de fréquence. Ce mémoire présente différentes mesures de réflectométrie prises avec un interféro-mètre à peignes de fréquence. La première moitié est consacrée à la présentation de la théorie, de l'implémentation en laboratoire de l'instrument et comment il est utilisé en réflectométrie. Par la suite, des mesures d'échantillons montrent les performances épatantes de l'interféromètre à peignes de fréquence pour caractériser des composants optiques à fibre communs dans le domaine des télécommunications. De plus, une série de mesures consécutives montre la capacité de l'instrument de prendre des mesures instantanées permettant ainsi de suivre le profil de déformation mécanique d'un échantillon à fibre dans le temps. L'instrument est par la suite adapté afin de prendre des mesures de type tomographic sur une surface étendue d'un échantillon. Le premier résultat montre la capacité de l'instrument à prendre des mesures en profondeur tandis que le second présente une image en trois dimensions de la surface d'un échantillon. Pour terminer, une brève analyse des performances et limites du montage de l'interféromètre à peignes de fréquence permet d'introduire les améliorations futures de l'instrument.
148

Recherche de signatures spectrales d’objets astronomiques variant ultra rapidement dans les relevés spectroscopiques

Trottier, Éric 19 April 2018 (has links)
Le domaine temporel est celui le moins exploré en astronomie [4]. À ce jour, les objets astronomiques connus variant avec les périodes les plus courtes sont les pulsars qui varient avec des périodes de quelques millisecondes. C'est pourquoi, une technique basée sur la théorie de Fourier est proposée pour détecter des objets qui varient avec des périodes extrêmement courtes (10* s et moins). Remarquez qu'il existe des indications que ces objets pourraient exister [10]. La distribution spectrale d'une source lumineuse variant avec une période très brève est donnée par la transformée de Fourier de la variation temporelle. Il en résulte que la distribution spectrale est modulée par une variation périodique fréquentielle. Durant la dernière décennie, des relevés {surveys) spectroscopiques ont été faits par le SDSS. La banque de données spectrales du SDSS-IIDR7 contient environ 2.5 millions de spectres, dont 700 000 étoiles, 1.4 million de galaxies et 200 000 quasars (et près de 100 000 spectres du ciel), lesquels sont accessibles au public. Pour analyser ces spectres, des techniques utilisant les transformées de Fourier et un logiciel de détection {Matlab) ont été développés. Comme le logiciel peut faire des fausses identifications, l'inspection visuelle des spectres extraits est requise. Les résultats obtenus (voir chapitre 4) montrent que pour certaines étoiles ordinaires, des modulations spectrales statistiquement significatives ont été découvertes. Pour les étoiles et les galaxies, les distributions statistiques obtenues sont compatibles avec celle de Rayleigh, mais pour les 23 quasars sortis les statistiques de petits nombres semblent biaiser cette compatibilité. Finalement, bien que la justification originale pour cette recherche consiste à découvrir des pulsateurs ultra-rapides, il n'en demeure pas moins qu'on peut également découvri
149

Recherche de caractéristiques sonores et de correspondances audiovisuelles pour des systèmes bio-inspirés de substitution sensorielle de l'audition vers la vision / Investigation of audio feature extraction and audiovisual correspondences for bio-inspired auditory to visual substitution systems

Adeli, Mohammad January 2016 (has links)
Résumé: Les systèmes de substitution sensorielle convertissent des stimuli d’une modalité sensorielle en des stimuli d’une autre modalité. Ils peuvent fournir les moyens pour les personnes handicapées de percevoir des stimuli d’une modalité défectueuse par une autre modalité. Le but de ce projet de recherche était d’étudier des systèmes de substitution de l’audition vers la vision. Ce type de substitution n’est pas bien étudié probablement en raison de la complexité du système auditif et des difficultés résultant de la désadaptation entre les sons audibles qui peuvent changer avec des fréquences allant jusqu’à 20000 Hz et des stimuli visuels qui changent très lentement avec le temps afin d’être perçus. Deux problèmes spécifiques des systèmes de substitution de l’audition vers la vision ont été ciblés par cette étude: la recherche de correspondances audiovisuelles et l’extraction de caractéristiques auditives. Une expérience audiovisuelle a été réalisée en ligne pour trouver les associations entre les caractéristiques auditives (la fréquence fondamentale et le timbre) et visuelles (la forme, la couleur, et la position verticale). Une forte corrélation entre le timbre des sons utilisés et des formes visuelles a été observée. Les sujets ont fortement associé des timbres “doux” avec des formes arrondies bleues, vertes ou gris clair, des timbres “durs” avec des formes angulaires pointues rouges, jaunes ou gris foncé et des timbres comportant simultanément des éléments de douceur et de dureté avec un mélange des deux formes visuelles arrondies et angulaires. La fréquence fondamentale n’a pas été associée à la position verticale, ni le niveau de gris ou la couleur. Étant donné la correspondance entre le timbre et une forme visuelle, dans l’étape sui- vante, un modèle hiérarchique flexible et polyvalent bio-inspiré pour analyser le timbre et extraire des caractéristiques importantes du timbre a été développé. Inspiré par les découvertes dans les domaines des neurosciences, neurosciences computationnelles et de la psychoacoustique, non seulement le modèle extrait-il des caractéristiques spectrales et temporelles d’un signal, mais il analyse également les modulations d’amplitude sur différentes échelles de temps. Il utilise un banc de filtres cochléaires pour résoudre les composantes spectrales d’un son, l’inhibition latérale pour améliorer la résolution spectrale, et un autre banc de filtres de modulation pour extraire l’enveloppe temporelle et la rugosité du son à partir des modulations d’amplitude. Afin de démontrer son potentiel pour la représentation du timbre, le modèle a été évalué avec succès pour trois applications : 1) la comparaison avec les valeurs subjectives de la rugosité 2) la classification d’instruments de musique 3) la sélection de caractéristiques pour les sons qui ont été regroupés en fonction de la forme visuelle qui leur avait été attribuée dans l’expérience audiovisuelle. La correspondance entre le timbre et la forme visuelle qui a été révélée par cette étude et le modèle proposé pour l’analyse de timbre peuvent être utilisés pour développer des systèmes de substitution de l’audition vers la vision intuitifs codant le timbre en formes visuelles. / Abstract: Sensory substitution systems encode a stimulus modality into another stimulus modality. They can provide the means for handicapped people to perceive stimuli of an impaired modality through another modality. The purpose of this study was to investigate auditory to visual substitution systems. This type of sensory substitution is not well-studied probably because of the complexities of the auditory system and the difficulties arising from the mismatch between audible sounds that can change with frequencies up to 20000 Hz and visual stimuli that should change very slowly with time to be perceived. Two specific problems of auditory to visual substitution systems were targeted in this research: the investigation of audiovisual correspondences and the extraction of auditory features. An audiovisual experiment was conducted online to find the associations between the auditory (pitch and timbre) and visual (shape, color, height) features. One hundred and nineteen subjects took part in the experiments. A strong association between timbre of envelope normalized sounds and visual shapes was observed. Subjects strongly associated soft timbres with blue, green or light gray rounded shapes, harsh timbres with red, yellow or dark gray sharp angular shapes and timbres having elements of softness and harshness together with a mixture of the previous two shapes. Fundamental frequency was not associated with height, grayscale or color. Given the correspondence between timbre and shapes, in the next step, a flexible and multipurpose bio-inspired hierarchical model for analyzing timbre and extracting the important timbral features was developed. Inspired by findings in the fields of neuroscience, computational neuroscience, and psychoacoustics, not only does the model extract spectral and temporal characteristics of a signal, but it also analyzes amplitude modulations on different timescales. It uses a cochlear filter bank to resolve the spectral components of a sound, lateral inhibition to enhance spectral resolution, and a modulation filter bank to extract the global temporal envelope and roughness of the sound from amplitude modulations. To demonstrate its potential for timbre representation, the model was successfully evaluated in three applications: 1) comparison with subjective values of roughness, 2) musical instrument classification, and 3) feature selection for labeled timbres. The correspondence between timbre and shapes revealed by this study and the proposed model for timbre analysis can be used to develop intuitive auditory to visual substitution systems that encode timbre into visual shapes.
150

Timing verification in transaction modeling

Tsikhanovich, Alena 12 1900 (has links)
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application. / Hardware/Software (Hw/Sw) systems are likely to become essential in all aspects of everyday life. The increasing penetration of Hw/Sw systems in products and services creates a necessity of their efficient development. However, the productive design of these systems is limited by several factors, some of them being the increasing complexity of applications, the increasing degree of integration, the heterogeneous nature of products and services as well as the shrinking of the time-to-market delay. Transaction Level Modeling (TLM) paradigm is considered as one of the most promising simulation paradigms to break down the design complexity by allowing the exploration and validation of design alternatives at high levels of abstraction. This research proposes a timing expression methodology in TLM based on temporal constraints analysis. We propose to use a combination of two paradigms to accelerate the design process: TLM on one hand and a methodology to express timing between different transactions on the other hand. Using a timing specification model and underlining timing constraints verification algorithms can decrease the time needed for verification by simulation. Combining in one framework the simulation and analytical design exploration methods can improve the analytical power of design verification and validation. We have proposed a new timing verification algorithm based on the linearization procedure and an optimization technique to improve its efficiency. We have completed the mathematical representation of all constraint types discussed in the literature creating in this way a unified timing specification methodology that can be used in the expression of a wider class of applications than previously presented ones. We have developed the methods for communication structure exploration and refinement that permitted us to apply the timing verification algorithms in system exploration at different TLM levels. As there are many definitions of TLM and many development environments proposing TLM in their design cycle with several pro and contra, in the context of our research we define a hardware/software (Hw/Sw) specification and simulation methodology which supports TLM in such a way that several modeling concepts can be seen separately. Relying on the use of modern software engineering technologies such as XML, XSLT, XSD, object oriented programming and others supported by the .Net Framework, an approach that makes an intermediate design model reuse possible in order to cope with time-to-market constraint is presented. The proposed TLM design methodology provides a general approach in system modeling that separates various application modeling aspects from system specification: computational models, used in application modeling, supported by the language used for the functional specification and provided by simulator. As a result, in the system model we can clearly identify system functionality without details related to the development platform thereby leading to a better “portability” of the application model.

Page generated in 0.0452 seconds