• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 19
  • 9
  • 1
  • Tagged with
  • 65
  • 28
  • 14
  • 14
  • 11
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

On recommendation systems in a sequential context / Des Systèmes de Recommandation dans un Contexte Séquentiel

Guillou, Frédéric 02 December 2016 (has links)
Cette thèse porte sur l'étude des Systèmes de Recommandation dans un cadre séquentiel, où les retours des utilisateurs sur des articles arrivent dans le système l'un après l'autre. Après chaque retour utilisateur, le système doit le prendre en compte afin d'améliorer les recommandations futures. De nombreuses techniques de recommandation ou méthodologies d'évaluation ont été proposées par le passé pour les problèmes de recommandation. Malgré cela, l'évaluation séquentielle, qui est pourtant plus réaliste et se rapproche davantage du cadre d'évaluation d'un vrai système de recommandation, a été laissée de côté. Le contexte séquentiel nécessite de prendre en considération différents aspects non visibles dans un contexte fixe. Le premier de ces aspects est le dilemme dit d'exploration vs. exploitation: le modèle effectuant les recommandations doit trouver le bon compromis entre recueillir de l'information sur les goûts des utilisateurs à travers des étapes d'exploration, et exploiter la connaissance qu'il a à l'heure actuelle pour maximiser le feedback reçu. L'importance de ce premier point est mise en avant à travers une première évaluation, et nous proposons une approche à la fois simple et efficace, basée sur la Factorisation de Matrice et un algorithme de Bandit Manchot, pour produire des recommandations appropriées. Le second aspect pouvant apparaître dans le cadre séquentiel surgit dans le cas où une liste ordonnée d'articles est recommandée au lieu d'un seul article. Dans cette situation, le feedback donné par l'utilisateur est multiple: la partie explicite concerne la note donnée par l'utilisateur concernant l'article choisi, tandis que la partie implicite concerne les articles cliqués (ou non cliqués) parmi les articles de la liste. En intégrant les deux parties du feedback dans un modèle d'apprentissage, nous proposons une approche basée sur la Factorisation de Matrice, qui peut recommander de meilleures listes ordonnées d'articles, et nous évaluons cette approche dans un contexte séquentiel particulier pour montrer son efficacité. / This thesis is dedicated to the study of Recommendation Systems under a sequential setting, where the feedback given by users on items arrive one after another in the system. After each feedback, the system has to integrate it and try to improve future recommendations. Many techniques or evaluation methods have already been proposed to study the recommendation problem. Despite that, such sequential setting, which is more realistic and represent a closer framework to a real Recommendation System evaluation, has surprisingly been left aside. Under a sequential context, recommendation techniques need to take into consideration several aspects which are not visible for a fixed setting. The first one is the exploration-exploitation dilemma: the model making recommendations needs to find a good balance between gathering information about users' tastes or items through exploratory recommendation steps, and exploiting its current knowledge of the users and items to try to maximize the feedback received. We highlight the importance of this point through the first evaluation study and propose a simple yet efficient approach to make effective recommendation, based on Matrix Factorization and Multi-Armed Bandit algorithms. The second aspect emphasized by the sequential context appears when a list of items is recommended to the user instead of a single item. In such a case, the feedback given by the user includes two parts: the explicit feedback as the rating, but also the implicit feedback given by clicking (or not clicking) on other items of the list. By integrating both feedback into a Matrix Factorization model, we propose an approach which can suggest better ranked list of items, and we evaluate it in a particular setting.
42

Capital-investissement et performance des introductions en bourse : application aux entreprises nouvellement introduites sur le nouveau marché et le second marché français (1991-2004) / Private equity and performance of initial public offerings : case of French new market and second market (1991-2004)

Cherrak, Jihene 14 December 2009 (has links)
Cette thèse s’interesse à l’étude des effets des sociétés de Capital-Investissement (SCI) sur la performance des introductions en bourse. La démarche suivie pour argumenter cette thèse nous a conduits, dans une première partie, à justifier notre positionnement théorique et à définir nos hypothèses de recherche. Cette étape nous a orientée vers l’analyse des caractéristiques des introductions en bourse et l’analyse du rôle des SCI notamment sur le marché des introductions en bourse. Nous avons construit une argumentation autour du rôle des SCI en matière de résolution des asyémtries informationnelles caractérisant les sociétés introduites en bourse. Les SCI, étant dotées d’une capacité à concevoir des contrats, d’un réseau de connaissance et d’une expertise, pourraient atténuer les conflits d’agence et émettre un signal positif sur le marché d’IPOs. En revanche, ces sociétés pourraient se retrouver face au problème de sélection adverse au moment de la décision d’investissement et/ou adopter un comportement opportuniste pour servir leurs intérêts. La vérification empirique de cette problèmatique est développée dans la deuxième partie de notre thèse. Elle consiste à comparer la performance à court et à long terme des sociétés financées de celles non financées par CI, ensuite analyser cette performance en foction de l’affiliation institutionnelle des SCI et enfin, expliquer cette performance en fonction de la réputation des SCI et des stratégies d’intermédiation de celles-ci, notamment la syndication, le financement séquentiel et la distribution des droits aux cash-flows et au contrôle / In this dissertation, it is tried to understand the effects of Venture Capital Firms (VCF) on the performance of VC-backed listed companies in France. To do this research, we try to develop, in the first part, theoretical framework and define research hypothesis. This part leads us to examine characteristics of initial public offerings (IPOs) and the role of venture capitalists particularly in conducting an IPO. We develop the argument around the role of VCF in resolving informational problems, characteristics of IPO’s market. A VCF, being specialists to draw up contract with entrepreneurs and possessing expertise and knowledge network, could diminish conflicts of interests and certify IPOs. However, these firms could run a problem of adverse selection and/or adopt opportunistic behaviour to serve their own interests. The empirical validation of this problem is dealt with in second part of this dissertation. It consists, in first place, to compare performance of VC backing IPOs to Non-VC backing IPOs. In second place, we determine the relation between the performance of VC backing IPOs and the institutional affiliation of VCF. In last part, we test explanatory power of reputation of VCF and their mechanisms of intermediation, particularly, syndication, staged financing and distribution of cash-flows and control rights
43

Lois bayésiennes a priori dans un plan binomial séquentiel

Bunouf, Pierre 01 March 2006 (has links) (PDF)
La reformulation du théorème de Bayes par R. de Cristofaro permet d'intégrer l'information sur le plan expérimental dans la loi a priori. En acceptant de transgresser les principes de vraisemblance et de la règle d'arrêt, un nouveau cadre théorique permet d'aborder le problème de la séquentialité dans l'inférence bayésienne. En considérant que l'information sur le plan expérimental est contenue dans l'information de Fisher, on dérive une famille de lois a priori à partir d'une vraisemblance directement associée à l'échantillonnage. Le cas de l'évaluation d'une proportion dans le contexte d'échantillonnages Binomiaux successifs conduit à considérer la loi Bêta-J. L'étude sur plusieurs plans séquentiels permet d'établir que l'"a priori de Jeffreys corrigé" compense le biais induit sur la proportion observée. Une application dans l'estimation ponctuelle montre le lien entre le paramétrage des lois Bêta-J et Bêta dans l'échantillonnage fixe. La moyenne et le mode des lois a posteriori obtenues présentent des propriétés fréquentistes remarquables. De même, l'intervalle de Jeffreys corrigé montre un taux de recouvrement optimal car la correction vient compenser l'effet de la règle d'arrêt sur les bornes. Enfin, une procédure de test, dont les erreurs s'interprètent à la fois en terme de probabilité bayésienne de l'hypothèse et de risques fréquentistes, est construite avec une règle d'arrêt et de rejet de H0 fondée sur une valeur limite du facteur de Bayes. On montre comment l'a priori de Jeffreys corrigé compense le rapport des évidences et garantit l'unicité des solutions, y compris lorsque l'hypothèse nulle est composite.
44

JEUX DE BANDITS ET FONDATIONS DU CLUSTERING

Bubeck, Sébastien 10 June 2010 (has links) (PDF)
Ce travail de thèse s'inscrit dans le domaine du machine learning et concerne plus particulièrement les sous-catégories de l'optimisation stochastique, du online learning et du clustering. Ces sous-domaines existent depuis plusieurs décennies mais ils ont tous reçu un éclairage différent au cours de ces dernières années. Notamment, les jeux de bandits offrent aujourd'hui un cadre commun pour l'optimisation stochastique et l'online learning. Ce point de vue conduit a de nombreuses extensions du jeu de base. C'est sur l'étude mathématique de ces jeux que se concentre la première partie de cette thèse. La seconde partie est quant à elle dédiée au clustering et plus particulièrement à deux notions importantes: la consistance asymptotique des algorithmes et la stabilité comme méthode de sélection de modèles.
45

Algorithmes de décodage pour les systèmes multi-antennes à complexité réduite

Ouertani, Rym 26 November 2009 (has links) (PDF)
Durant ces dernières années, un grand intérêt a été accordé aux systèmes de communication sans fil ayant plusieurs antennes en émission et en réception. Les codes espace-temps permettent d'exploiter tous les degrés de liberté de tels systèmes. Toutefois, le décodage de ces codes présente une grande complexité qui croit en fonction du nombre d'antennes déployées et de la taille de la constellation utilisée. Nous proposons un nouveau décodeur, appelé SB-Stack (Spherical Bound-Stack decoder) basé sur un algorithme de recherche dans l'arbre. Ce décodeur combine la stratégie de recherche du décodeur séquentiel Stack (dit également décodeur à pile) et la région de recherche du décodeur par sphères. Nous montrons que ce décodeur présente une complexité moindre par rapport à tous les décodeurs existants tout en offrant des performances optimales. Une version paramétrée de ce décodeur est aussi proposée, offrant une multitude de performances allant du ZF-DFE au ML avec des complexités croissantes, ainsi plusieurs compromis performances-complexités sont obtenus. Comme pour tous les systèmes de communication, les codes espace-temps pour les systèmes à antennes multiples peuvent être concaténés avec des codes correcteurs d'erreurs. Généralement, ces derniers sont décodés par des décodeurs à entrées et sorties souples. Ainsi, nous avons besoin de sorties souples fournies par le décodeur espace-temps qui seront utilisées comme entrées par les premiers décodeurs. Nous proposons alors une version modifiée du décodeur SB-Stack délivrant des sorties souples sous forme de taux de vraisemblance logarithmiques (Log-Likelihood Ratio - LLR). Pour la mise en oeuvre pratique des décodeurs, il est important d'avoir une complexité faible mais avoir également une complexité constante est indispensable dans certaines applications. Nous proposons alors un décodeur adaptatif qui permet de sélectionner, parmi plusieurs algorithmes de décodage, celui qui est le plus adéquat selon la qualité du canal de transmission et la qualité de service souhaitée. Nous présentons une implémentation pratique du décodage adaptatif utilisant le décodeur SB-Stack paramétré. Le décodage des codes espace-temps peut être amélioré en le précédant par une phase de pré-traitement. En sortie de cette phase, la matrice du canal équivalente est mieux conditionnée ce qui permet de réduire la complexité d'un décodeur optimal et d'améliorer les performances d'un décodeur sous-optimal. Nous présentons et nous étudions alors les performances d'une chaine complète de décodage utilisant diverses techniques de pré-traitement combinées avec les décodeurs espace-temps étudiés précédemment.
46

Polymères de coordination à transition de spin : synthèse, élaboration de couches minces, nanostructuration et propriétés physiques

Bartual-Murgui, Carlos 26 November 2010 (has links) (PDF)
Depuis de nombreuses années, les demandes technologiques en termes de capacité de stockage de l'information numérique augmentent de façon considérable et sont en partie à l'origine du développement des nanosciences : l'objectif est de stocker toujours plus d'information dans un volume toujours plus petit et le plus rapidement possible. De même, la miniaturisation d'autres composants électroniques ou photonique tels que les capteurs, les dispositifs pour l'optique constitue un domaine en pleine essor. Les composés moléculaires organiques et inorganiques sont potentiellement prometteurs dans la perspective de telles applications. En particulier, les matériaux bistables présentant une hystérésis de leurs propriétés physiques sont des matériaux de choix pour la conception de dispositifs de stockage de l'information et capteur de gaz à très petite échelle. Cependant, le dépôt sous forme de couches minces et également la fabrication de nano-objets ainsi que leur intégration sans altérer la propriété de ces systèmes constituent des étapes incontournables dans la conception de tout dispositif. Dans ce contexte, ce manuscrit présente la conception, la synthèse et la caractérisation d'une nouvelle famille de composés tridimensionnels polymériques de coordination présentant des propriétés bistables. Il s'agit de polymères de coordination à transition de spin de la famille des clathrates de Hofmann. L'étude physico-chimique de ces composés a été centrée, notamment, sur les variations des caractéristiques de la transition de spin en fonction des compositions chimiques obtenues pour différentes méthodes de synthèse mises en oeuvre. De plus, sont étudiés les changements des propriétés physiques et structurales qui se produisent lors de l'adsorption de molécules invitées dans les pores de ces polymères. D'autre part, ce travail de thèse montre une approche originale dite dépôt séquentiel ou plus largement dépôt "couche-par-couche" pour l'élaboration de couches minces et présente également la nano-structuration de ces matériaux par combinaison de techniques lithographiques et de l'assemblage séquentiel. La modification des conditions expérimentales de l'assemblage séquentiel nous a permis de maîtriser la croissance et la qualité de surface des dépôts (rugosité inférieure à quelques Angström). Ces couches minces et ces nano-objets ont été caractérisés par différentes techniques optiques (microscopie Raman, ellipsométrie, spectroscopie des plasmons de surface ...) ou encore des techniques d'imagerie (AFM, microscopie optique en champ sombre). La combinaison des résultats obtenus sur les propriétés d'adsorption de ces composés bistables et leur mise en forme en tant que systèmes micro- et nano-structurés ouvre la voie vers des perspectives sérieuses pour la réalisation de dispositifs capteurs de gaz.
47

Transfert couplé électron/proton et coupure de liaison dans des systèmes bio-inspirés

Hajj, Viviane 03 October 2011 (has links) (PDF)
Le transfert d'électron associé au transfert de proton ou à la coupure de liaison est un processus omniprésent dans les systèmes naturels et biologiques. Comprendre les enjeux mécanistiques impliqués dans le fonctionnement de ces systèmes permet de les exploiter et de pouvoir les imiter. Deux systèmes bio-inspirés ont été étudiés par électrochimie directe, l'oxydation d'une paire de base guanine-cytosine et la réduction d'un cycloperoxyde assistée par la présence d'un groupe donneur de proton. Le premier système associe le transfert d'électron au transfert de proton alors que le second illustre le couplage entre le transfert d'électron et de proton et la coupure de liaison. L'appariement entre les bases de l'ADN par liaison hydrogène n'a aucun effet sur la cinétique et la thermodynamique de l'oxydation de la guanine. La réaction est cinétiquement contrôlée par la première étape du transfert électronique et le mécanisme impliqué est séquentiel. La coupure réductrice de la liaison O-O du cycloperoxyde assistée par la présence d'un groupe donneur de proton est comparée à un autre système où la fonction acide carboxylique est remplacée par un groupe méthoxy. Un décalage de 700 mV est observé entre les potentiels de pic des deux composés indiquant que le gain thermodynamique offert par l'étape de protonation est exprimé dans la cinétique de la réaction. Par conséquent le transfert d'électron dissociatif et le transfert de proton sont tous concertés. Un nouveau modèle cinétique simplifié a été établie pour décrire la dynamique de ce type de mécanisme appelé " tout concerté ".
48

Détection et classification de cibles multispectrales dans l'infrarouge

MAIRE, Florian 14 February 2014 (has links) (PDF)
Les dispositifs de protection de sites sensibles doivent permettre de détecter des menaces potentielles suffisamment à l'avance pour pouvoir mettre en place une stratégie de défense. Dans cette optique, les méthodes de détection et de reconnaissance d'aéronefs se basant sur des images infrarouge multispectrales doivent être adaptées à des images faiblement résolues et être robustes à la variabilité spectrale et spatiale des cibles. Nous mettons au point dans cette thèse, des méthodes statistiques de détection et de reconnaissance d'aéronefs satisfaisant ces contraintes. Tout d'abord, nous spécifions une méthode de détection d'anomalies pour des images multispectrales, combinant un calcul de vraisemblance spectrale avec une étude sur les ensembles de niveaux de la transformée de Mahalanobis de l'image. Cette méthode ne nécessite aucune information a priori sur les aéronefs et nous permet d'identifier les images contenant des cibles. Ces images sont ensuite considérées comme des réalisations d'un modèle statistique d'observations fluctuant spectralement et spatialement autour de formes caractéristiques inconnues. L'estimation des paramètres de ce modèle est réalisée par une nouvelle méthodologie d'apprentissage séquentiel non supervisé pour des modèles à données manquantes que nous avons développée. La mise au point de ce modèle nous permet in fine de proposer une méthode de reconnaissance de cibles basée sur l'estimateur du maximum de vraisemblance a posteriori. Les résultats encourageants, tant en détection qu'en classification, justifient l'intérêt du développement de dispositifs permettant l'acquisition d'images multispectrales. Ces méthodes nous ont également permis d'identifier les regroupements de bandes spectrales optimales pour la détection et la reconnaissance d'aéronefs faiblement résolus en infrarouge
49

A dynamic sequential route choice model for micro-simulation

Morin, Léonard Ryo 09 1900 (has links)
Dans les études sur le transport, les modèles de choix de route décrivent la sélection par un utilisateur d’un chemin, depuis son origine jusqu’à sa destination. Plus précisément, il s’agit de trouver dans un réseau composé d’arcs et de sommets la suite d’arcs reliant deux sommets, suivant des critères donnés. Nous considérons dans le présent travail l’application de la programmation dynamique pour représenter le processus de choix, en considérant le choix d’un chemin comme une séquence de choix d’arcs. De plus, nous mettons en œuvre les techniques d’approximation en programmation dynamique afin de représenter la connaissance imparfaite de l’état réseau, en particulier pour les arcs éloignés du point actuel. Plus précisément, à chaque fois qu’un utilisateur atteint une intersection, il considère l’utilité d’un certain nombre d’arcs futurs, puis une estimation est faite pour le restant du chemin jusqu’à la destination. Le modèle de choix de route est implanté dans le cadre d’un modèle de simulation de trafic par événements discrets. Le modèle ainsi construit est testé sur un modèle de réseau routier réel afin d’étudier sa performance. / In transportation modeling, a route choice is a model describing the selection of a route between a given origin and a given destination. More specifically, it consists of determining the sequence of arcs leading to the destination in a network composed of vertices and arcs, according to some selection criteria. We propose a novel route choice model, based on approximate dynamic programming. The technique is applied sequentially, as every time a user reaches an intersection, he/she is supposed to consider the utility of a certain number of future arcs, followed by an approximation for the rest of the path leading up to the destination. The route choice model is implemented as a component of a traffic simulation model, in a discrete event framework. We conduct a numerical experiment on a real traffic network model in order to analyze its performance.
50

Apprentissage semi-supervisé pour la détection multi-objets dans des séquences vidéos : Application à l'analyse de flux urbains / Semi-supervised learning for multi-object detection in video sequences : Application to the analysis of urban flow

Maâmatou, Houda 05 April 2017 (has links)
Depuis les années 2000, un progrès significatif est enregistré dans les travaux de recherche qui proposent l’apprentissage de détecteurs d’objets sur des grandes bases de données étiquetées manuellement et disponibles publiquement. Cependant, lorsqu’un détecteur générique d’objets est appliqué sur des images issues d’une scène spécifique les performances de détection diminuent considérablement. Cette diminution peut être expliquée par les différences entre les échantillons de test et ceux d’apprentissage au niveau des points de vues prises par la(les) caméra(s), de la résolution, de l’éclairage et du fond des images. De plus, l’évolution de la capacité de stockage des systèmes informatiques, la démocratisation de la "vidéo-surveillance" et le développement d’outils d’analyse automatique des données vidéos encouragent la recherche dans le domaine du trafic routier. Les buts ultimes sont l’évaluation des demandes de gestion du trafic actuelles et futures, le développement des infrastructures routières en se basant sur les besoins réels, l’intervention pour une maintenance à temps et la surveillance des routes en continu. Par ailleurs, l’analyse de trafic est une problématique dans laquelle plusieurs verrous scientifiques restent à lever. Ces derniers sont dus à une grande variété dans la fluidité de trafic, aux différents types d’usagers, ainsi qu’aux multiples conditions météorologiques et lumineuses. Ainsi le développement d’outils automatiques et temps réel pour l’analyse vidéo de trafic routier est devenu indispensable. Ces outils doivent permettre la récupération d’informations riches sur le trafic à partir de la séquence vidéo et doivent être précis et faciles à utiliser. C’est dans ce contexte que s’insèrent nos travaux de thèse qui proposent d’utiliser les connaissances antérieurement acquises et de les combiner avec des informations provenant de la nouvelle scène pour spécialiser un détecteur d’objet aux nouvelles situations de la scène cible. Dans cette thèse, nous proposons de spécialiser automatiquement un classifieur/détecteur générique d’objets à une scène de trafic routier surveillée par une caméra fixe. Nous présentons principalement deux contributions. La première est une formalisation originale de transfert d’apprentissage transductif à base d’un filtre séquentiel de type Monte Carlo pour la spécialisation automatique d’un classifieur. Cette formalisation approxime itérativement la distribution cible inconnue au départ, comme étant un ensemble d’échantillons de la base spécialisée à la scène cible. Les échantillons de cette dernière sont sélectionnés à la fois à partir de la base source et de la scène cible moyennant une pondération qui utilise certaines informations a priori sur la scène. La base spécialisée obtenue permet d’entraîner un classifieur spécialisé à la scène cible sans intervention humaine. La deuxième contribution consiste à proposer deux stratégies d’observation pour l’étape mise à jour du filtre SMC. Ces stratégies sont à la base d’un ensemble d’indices spatio-temporels spécifiques à la scène de vidéo-surveillance. Elles sont utilisées pour la pondération des échantillons cibles. Les différentes expérimentations réalisées ont montré que l’approche de spécialisation proposée est performante et générique. Nous avons pu y intégrer de multiples stratégies d’observation. Elle peut être aussi appliquée à tout type de classifieur. De plus, nous avons implémenté dans le logiciel OD SOFT de Logiroad les possibilités de chargement et d’utilisation d’un détecteur fourni par notre approche. Nous avons montré également les avantages des détecteurs spécialisés en comparant leurs résultats avec celui de la méthode Vu-mètre de Logiroad. / Since 2000, a significant progress has been recorded in research work which has proposed to learn object detectors using large manually labeled and publicly available databases. However, when a generic object detector is applied on images of a specific scene, the detection performances will decrease considerably. This decrease may be explained by the differences between the test samples and the learning ones at viewpoints taken by camera(s), resolution, illumination and background images. In addition, the storage capacity evolution of computer systems, the "video surveillance" democratization and the development of automatic video-data analysis tools have encouraged research into the road-traffic domain. The ultimate aims are the management evaluation of current and future trafic requests, the road infrastructures development based on real necessities, the intervention of maintenance task in time and the continuous road surveillance. Moreover, traffic analysis is a problematicness where several scientific locks should be lifted. These latter are due to a great variety of traffic fluidity, various types of users, as well multiple weather and lighting conditions. Thus, developing automatic and real-time tools to analyse road-traffic videos has become an indispensable task. These tools should allow retrieving rich data concerning the traffic from the video sequence and they must be precise and easy to use. This is the context of our thesis work which proposes to use previous knowledges and to combine it with information extracted from the new scene to specialize an object detector to the new situations of the target scene. In this thesis, we propose to automatically specialize a generic object classifier/detector to a road traffic scene surveilled by a fixed camera. We mainly present two contributions. The first one is an original formalization of Transductive Transfer Learning based on a sequential Monte Carlo filter for automatic classifier specialization. This formalization approximates iteratively the previously unknown target distribution as a set of samples composing the specialized dataset of the target scene. The samples of this dataset are selected from both source dataset and target scene further to a weighting step using some prior information on the scene. The obtained specialized dataset allows training a specialized classifier to the target scene without human intervention. The second contribution consists in proposing two observation strategies to be used in the SMC filter’s update step. These strategies are based on a set of specific spatio-temporal cues of the video surveillance scene. They are used to weight the target samples. The different experiments carried out have shown that the proposed specialization approach is efficient and generic. We have been able to integrate multiple observation strategies. It can also be applied to any classifier / detector. In addition, we have implemented into the Logiroad OD SOFT software the loading and utilizing possibilities of a detector provided by our approach. We have also shown the advantages of the specialized detectors by comparing their results to the result of Logiroad’s Vu-meter method.

Page generated in 0.0492 seconds