21 |
Vision cognitive : apprentissage supervisé pour la segmentation d'images et de videosMartin, Vincent 19 December 2007 (has links) (PDF)
Dans cette thèse, nous abordons le problème de la segmentation d'image dans le cadre de la vision cognitive. Plus précisément, nous étudions deux problèmes majeurs dans les systèmes de vision : la sélection d'un algorithme de segmentation et le réglage de ses paramètres selon le contenu de l'image et les besoins de l'application. Nous proposons une méthodologie reposant sur des techniques d'apprentissage pour faciliter la configuration des algorithmes et adapter en continu la tâche de segmentation. Notre première contribution est une procédure d'optimisation générique pour l'extraction automatiquement des paramètres optimaux des algorithmes. L'évaluation de la qualité de la segmentation est faite suivant une segmentation de référence. De cette manière, la tâche de l'utilisateur est réduite à fournir des données de référence pour des images d'apprentissage, comme des segmentations manuelles. Une seconde contribution est une stratégie pour le problème de sélection d'algorithme. Cette stratégie repose sur un jeu d'images d'apprentissage représentatif du problème. La première partie utilise le résultat de l'étape d'optimisation pour classer les algorithmes selon leurs valeurs de performance pour chaque image. La seconde partie consiste à identifier différentes situations à partir du jeu d'images d'apprentissage (modélisation du contexte) et à associer un algorithme paramétré avec chaque situation identifiée. Une troisième contribution est une approche sémantique pour la segmentation d'image. Dans cette approche, nous combinons le résultat des segmentations optimisées avec un processus d'étiquetage des régions. Les labels des régions sont donnés par des classificateurs de régions eux-mêmes entrainés à partir d'exemples annotés par l'utilisateur. Une quatrième contribution est l'implémentation de l'approche et le développement d'un outil graphique dédié à l'extraction, l'apprentissage, et l'utilisation de la connaissance pour la segmentation (modélisation et apprentissage du contexte pour la sélection dynamique d'algorithme de segmentation, optimisation automatique des paramètres, annotations des régions et apprentissage des classifieurs). Nous avons testé notre approche sur deux applications réelles : une application biologique (comptage d'insectes sur des feuilles de rosier) et une application de vidéo surveillance. Pour la première application, la segmentation des insectes obtenue par notre approche est de meilleure qualité qu'une segmentation non-adaptative et permet donc au système de vision de compter les insectes avec une meilleure précision. Pour l'application de vidéo surveillance, la principale contribution de l'approche proposée se situe au niveau de la modélisation du contexte, permettant d'adapter le choix d'un modèle de fond suivant les caractéristiques spatio-temporelles de l'image. Notre approche permet ainsi aux applications de vidéo surveillance d'élargir leur champ d'application aux environnements fortement variables comme les très longues séquences (plusieurs heures) en extérieur. Afin de montrer le potentiel et les limites de notre approche, nous présentons les résultats, une évaluation quantitative et une comparaison avec des segmentations non-adaptative.
|
22 |
Techniques de synchronisation aveugles pour les systèmes codésImad, Rodrigue 25 September 2009 (has links) (PDF)
Les dernières années ont vu une augmentation dans la demande de systèmes de communications numériques efficaces et fiables. Afin de protéger les données transmises contre le bruit, les codes correcteurs d'erreurs doivent être introduits dans le système de transmission. Les codes LDPC (Low Density Parity Check), les codes produits et les turbocodes ont prouvé leur efficacité dans la détection et la correction des erreurs, même à des faibles SNR (Signal to Noise Ratio). Cependant, une dégradation importante dans les performances de ces codes est atteinte dans le cas d'une mauvaise synchronisation au niveau du récepteur. Ainsi, l'utilisation de méthodes de synchronisation efficaces est nécessaire pour le bon fonctionnement d'un système de transmission. Les techniques classiques de synchronisation sont basées sur le rajout de bits pilotes dans la séquence de données à transmettre. La détection de ces bits à la réception nous permet de réaliser la synchronisation. Cependant, ces méthodes ont pour effet de diminuer l'efficacité spectrale de la transmission surtout quand des codes correcteurs d'erreurs de petite taille sont utilisés dans le système. Pour cela, nous sommes intéressés dans cette thèse par la conception de nouvelles techniques de synchronisation aveugles, qui sont capables de synchroniser à des faibles SNR. Nous considérons dans cette thèse le problème de la synchronisation trame, de l'estimation du résidu de porteuse et de l'estimation du déphasage. Nous proposons des techniques de synchronisation originales qui sont basées sur le calcul et la minimisation de fonctions du LLR (Log-Likelihood Ratio) du syndrome calculées à partir de la matrice de contrôle de parité du code correcteur d'erreurs. Les résultats des simulations ont montré que les techniques proposées sont très efficaces et leurs performances surpassent celles de plusieurs méthodes existant dans la littérature.
|
23 |
Techniques de contrôle du mouvement pour l'animationHanotaux, Gabriel 22 April 1993 (has links) (PDF)
En animation tridimensionnelle, on distingue principalement deux grandes approches basées soit sur des modèles descriptifs, soit sur des modèles générateurs. Dans la première, les possibilités de contrôle sur les trajectoires d'interpolation sont essentielles. Je décris une méthode offrant à l'utilisateur les mêmes possibilités d'interaction sur les trajectoires d'orientations que sur les positions. Le contrôle en temps réel des orientations est rendu possible par une paramétrisation à base de logarithme et d'exponentielle de quaternions et par la notion de tangente sphérique. Une interface 3d de haut niveau gère les interactions avec l'utilisateur. La vitesse de déplacement le long des trajectoires est déterminée par une paramétrisation automatique reprenant des principes de mécanique élémentaire. Enfin, ces techniques sont appliquées a la modélisation interactive de cylindres généralises. Les systèmes par paramètres-clés montrent vite leurs limitations dès qu'il s'agit d'animer de façon réaliste des objets complexes. Pour cela, les systèmes d'animation dits générateurs intégrant les lois de la mécanique ont été introduits. Dans la deuxième partie, je propose une approche alliant les possibilités de contrôle des systèmes descriptifs au réalisme des modèles générateurs. Le principe est de minimiser l'énergie au cours du mouvement. Les équations du mouvement pour des solides rigides articules sont construites sous forme symbolique. L'étape de minimisation est réalisée par un algorithme de contrôle optimal, traitant les équations du mouvement sous leur forme continue.
|
24 |
Un résultat de convergence des algorithmes parallèles asynchrones. Application aux opérateurs maximaux fortement monotonesBenahmed, Abdenasser 28 July 2005 (has links) (PDF)
Dans ce travail, nous avons considéré des algorithmes parallèles asynchrones associés à des applications non linéaires non-expansives définies sur Rn. Nous avons montré le résultat de convergence concernant ces algorithmes vers un point fixe de ces applications relativement à la norme uniforme sur Rn. Nous avons ensuite montré comment ces algorithmes sont bien adaptés au calcul de la solution d'un opérateur maximal fortement monotone défini sur Rn et au calcul des solutions d'un opérateur maximal monotone dans le cas de l'algorithme parallèle synchrone de Jacobi. Ensuite, nous avons appliqué ces résultats aux calculs du minimum de fonctionnelles, du point selle, de la solution des programmes convexes et enfin de la solution du problème de l'inégalité variationnelle.
|
25 |
Représentations discrètes de l'ensemble des points non dominés pour des problèmes d'optimisation multi-objectifsJamain, Florian 27 June 2014 (has links) (PDF)
Le but de cette thèse est de proposer des méthodes générales afin de contourner l'intractabilité de problèmes d'optimisation multi-objectifs.Dans un premier temps, nous essayons d'apprécier la portée de cette intractabilité en déterminant une borne supérieure, facilement calculable, sur le nombre de points non dominés, connaissant le nombre de valeurs prises par chaque critère.Nous nous attachons ensuite à produire des représentations discrètes et tractables de l'ensemble des points non dominés de toute instance de problèmes d'optimisation multi-objectifs. Ces représentations doivent satisfaire des conditions de couverture, i.e. fournir une bonne approximation, de cardinalité, i.e. ne pas contenir trop de points, et si possible de stabilité, i.e. ne pas contenir de redondances. En s'inspirant de travaux visant à produire des ensembles ε-Pareto de petite taille, nous proposons tout d'abord une extension directe de ces travaux, puis nous axons notre recherche sur des ensembles ε-Pareto satisfaisant une condition supplémentaire de stabilité. Formellement, nous considérons des ensembles ε-Pareto particuliers, appelés (ε, ε′)-noyaux, qui satisfont une propriété de stabilité liée à ε′. Nous établissons des résultats généraux sur les (ε, ε′)-noyaux puis nous proposons des algorithmes polynomiaux qui produisent des (ε, ε′)-noyaux de petite taille pour le cas bi-objectif et nous donnons des résultats négatifs pour plus de deux objectifs.
|
26 |
Contribution à l'identification des paramètres rhéologiques des suspensions cimentaires à l'état frais / Identification to rheological parameters identification of fresh cementitious suspensionsAnglade, Célimène 03 February 2017 (has links)
Le travail de thèse s'inscrit dans la modélisation numérique de l'écoulement des matériaux cimentaires à l'état frais couplée à un outil d'identification des paramètres. Il traite en particulier l'étape de mise en place de l'identification par analyse inverse. D'abord, une analyse de la littérature fait ressortir l'existence d'outils rhéométriques dédiés aux suspensions cimentaires ; le passage des grandeurs macroscopiques à celles locales est faite, soit par le biais de l'utilisation de géométries conventionnelles, soit au moyen de méthodes de calibration. Néanmoins, ces outils ne permettent pas de trouver une signature rhéologique unique pour une même suspension. De plus, les stratégies d'identification des paramètres relatifs aux matériaux cimentaires frais sont peu nombreuses et limitées aux données locales. Ensuite, une stratégie qui consiste à identifier les paramètres d'une loi supposée, directement à partir des mesures macroscopiques simulées (couples, vitesses de rotation imposées au mobile de cisaillement) a été développée et validée en 2D, en discutant notamment de l'efficacité des algorithmes d'optimisation testés (méthode du simplexe et algorithmes génétiques), en fonction du degré de connaissances que l'utilisateur a du matériau. Enfin, la méthode a été appliquée en 3D sur des fluides modèles supposés homogènes. Elle apparaît efficace en fluide pseudo-plastique, notamment par combinaison des algorithmes d'optimisation. Mais il reste des obstacles à lever en fluide visco-plastique, vraisemblablement liés aux outils expérimentaux plutôt qu'à la procédure d'identification elle-même. / The thesis work is part of the numerical modeling of the flow of cementitious materials in the fresh state coupled with an identification procedure of the parameters. It deals in particular with the step of the development of the identification by inverse analysis. First,the literature review reveals the existence of rheometric tools dedicated to cementitious suspensions; The passage from the macroscopic quantities to the local ones is made either by the use of conventional geometries or by means of calibration methods. Nevertheless, these tools do not make it possible to find the expected single rheological signature for a given suspension. In addition, there are few studies reporting strategies for identifying constitutive parameters in the case of fresh cement-based materials and they are limited to local data. Then, a strategy consisting in identifying the parameters of a supposed law, directly on the basis of the simulated macroscopic measurements (torques, rotational speeds imposed on the shearing tool) was developed and validated in 2D, discussing in particular the efficiency Of the optimization algorithms tested (simplex method and genetic algorithms), according to the degree of knowledge that the user has of the material. Finally, the method has been applied in 3D on model fluids, assuming that they are homogeneous. The method appears effective in the case of pseudo-plastic fluid, in particular by combining both optimization algorithms used. But there remain obstacles to overcome in the case of visco-plastic fluids, probably related to the experimental tools rather than to the procedure of identification itself.
|
27 |
Valorisation de l'inertie thermique pour la performance énergétique des bâtiments / Valorization of thermal mass for the energy performances of buildingsChahwane, Layal 21 October 2011 (has links)
L'inertie thermique constitue un atout essentiel pour stocker l'énergie reçue par le bâtiment et la restituer quand cela est nécessaire : elle permet d'emmagasiner les apports gratuits issus du rayonnement solaire pour réduire les consommations énergétiques liées au chauffage en présence d'une isolation performante. En été, son association à la ventilation nocturne contribue à évacuer l'énergie stockée au cours de la journée limitant ainsi les surchauffes à l'intérieur du bâtiment. Une exploitation optimale de l'inertie passe par une sélection appropriée des matériaux de construction lors de la phase d'avant-projet et par le développement de stratégies visant à exploiter leur capacité de stockage. Les outils de simulation thermique dynamique dont on dispose permettent de modéliser de façon assez précise les transferts de chaleur dans l'enveloppe du bâtiment mais leur niveau de finesse n'est pas nécessairement adapté aux besoins des concepteurs au moment de faire les choix les plus fondamentaux. Néanmoins ils demeurent indispensables non seulement pour la validation de ces choix mais aussi pour le développement de méthodes destinées à améliorer l'exploitation de l'énergie avant de procéder à la réalisation d'un projet. Ce travail a consisté à développer une méthodologie de conception basée sur deux approches complémentaires : la première approche permet de décrire le comportement détaillé du bâtiment à l'aide d'un modèle de simulation dynamique performant développé dans la plateforme SimSPARK qu'on a eu l'occasion de comparer aux mesures expérimentales de la plateforme INCAS. La seconde est basée sur le développement de l'outil simplifié CoSPARK qui à partir de la connaissance de quelques éléments clés, permet de déterminer les caractéristiques appropriées de l'enveloppe pour favoriser la performance énergétique des bâtiments. La dernière partie de ce travail a été consacrée à l'optimisation de stratégies d'une part en activant l'inertie thermique dans le cas d'une ventilation nocturne adaptative pour l'été et d'autre part en réduisant les consommations de chauffage en hiver dans le cas d'un plancher couplé à une installation solaire en utilisant le modèle de référence SimSPARK. / Thermal inertia is a key asset to store energy received by the building and release it when needed : in winter, when used with a good insulation, it can store solar heat gains available during the day (collected via different systems) and restitute them during the night thus reducing energy consumption. In summer, building thermal mass coupled with an efficient night ventilation helps remove the energy stored during the day, which limits overheating periods inside the building during the next day. Optimal use of thermal inertia results from an appropriate selection of building materials during the preliminary design phase and the development of strategies to exploit their storage capacity. Actual thermal simulation tools allow for higher accuracy in heat transfer modeling through the building envelope. However, their level of precision is not necessarily adapted to the needs of designers during the design phase when making the first choices. Nevertheless, they remain indispensable not only for the validation of these choices but also to develop methods to improve the management of the energy prior to the completion of a project. This work aimed to develop a design methodology based on two complementary approaches : the first method uses the accurate building response evaluated using a dynamic simulation model developed in SimSPARK simulation platform that we had the opportunity to compare with experimental measurements on the INCAS platform. The second one consists on using the results of a simplified tool (CoSPARK) to determine, with only few design key elements, the appropriate characteristics of the envelope that optimize the energy performance of the building. The last part of this work exposes some strategies that help take full advantage of the thermal mass inertia ; on one hand, for summer comfort, with the use of an adaptive night ventilation control, and, on the other hand, for winter periods, by reducing heating consumption using a radiant floor heating coupled with a solar system.
|
28 |
Génération automatique de problèmes d'optimisation pour la conception et la gestion des réseaux électriques de bâtiments intelligents multi-sources multi-charges / Automatic generation of optimization problems in the design and management of power systems of intelligent buildings multi load multi sourceWarkozek, Ghaith 07 September 2011 (has links)
Le bâtiment devient de plus en plus un système complexe où les flux énergétiques doivent être gérés en fonction des usages : on parle de bâtiments intelligents. Il s'ensuit une complexité croissante pour les concepteurs, qui doivent s'intéresser autant au bâtiment lui-même (plusieurs sources électriques et multiplication des charges) qu'à ses équipements, sa gestion énergétique mais aussi aux interactions avec l'environnement extérieur (flux d'informations exogènes sur le marché d'énergie, prix d'achat et de revente, subventions à l'auto-consommation, etc...). Il est désormais nécessaire de coupler la phase de conception avec celle de gestion énergétique du bâtiment. Les travaux de cette thèse visent à proposer une démarche méthodologique permettant de formuler automatiquement les problèmes d'optimisation exploitables autant en conception qu'en exploitation du système bâtiment. La démarche est basée sur les concepts issus de l'ingénierie dirigée par les modèles (IDM). / The building is becoming increasingly a complex system where energy flows must be managed according to consumption: we talk about intelligent buildings. This means increasing complexity for designers who need to focus as much on building itself (several power sources and multiplication of charges) in its equipment, and in its energy management but also to interactions with the external environment (exogenous flow of information on the energy market, the purchase price and resale, subsidies for self-consumption, etc. ...). It is now necessary to tie the design phase with that of building energy management. The work of this thesis aims at proposing a methodological approach to automatically formulate optimization problems at design stage and under operation of building. The approach is based on concepts from the model-driven engineering (MDE).
|
29 |
Optimisation des aires de jeux des salons de jeux du QuébecDrouin-Provençal, Étienne January 2018 (has links) (PDF)
No description available.
|
30 |
Allocation des ressources fondée sur la qualité du canal pour la voie descendante des systèmes LTE / Resources allocation based on channel quality for the downlink of LTE systemsHuang, Fan 16 December 2015 (has links)
La recherche effectuée dans cette thèse a pour cadre les réseaux radio privés dédiés aux forces de sécurité civile. En effet, doté actuellement d’un service bande étroite, ils doivent évoluer pour faire face à de nouveaux besoins comme la vidéo ou le multimédia. L’objectif est donc d’adapter la technologie LTE aux contraintes et propriétés de ces réseaux particulier. Ainsi, le nombre d’utilisateurs est limité mais le service doit toujours être disponible et des priorités peuvent être mises en œuvre.Dans ce contexte, l’allocation des ressources de communication est un problème important avec des prérequis différents des réseaux d’opérateurs. Notre conception d’algorithmes d’allocation a donc été menée avec deux objectifs principaux : maximiser l'efficacité du spectre et servir équitablement les utilisateurs au lieu de maximiser le débit global du réseau.Cette thèse propose des nouvelles stratégies de l’allocation des blocs de ressources (RB) dans les systèmes LTE sur le lien descendant. Au contraire des algorithmes classiques d'allocation des ressources qui se basent sur la capacité de RB déjà estimée, nos stratégies d’allocation des RB cherchent à améliorer le débit utilisateur, en utilisant la coopération à base de Beamforming et les modèles de la théorie des jeux.1. L’interférence inter-cellulaire est le principal problème des systèmes OFDMA. Grâce aux antennes MIMO (Multiple-Input-Multiple-Output), la technique de Beamforming améliore le signal reçu afin d'augmenter le SINR (Signal-to-Interference-plus-Noise-Ratio), mais le signal amélioré peut également influencer l’interférence inter-cellulaire dans les cellules voisines. Dans les méthodes traditionnelles, le contrôleur alloue les RBs aux UEs (User Equipement) en fonction de la capacité des RB et d'autres paramètres, le système applique alors la technique de Beamforming aux équipements utilisateurs choisis. Après la formation des faisceaux, la capacité des RB varie mais l'ordonnanceur conserve la même allocation. Au contraire, notre système alloue les RBs et choisit les vecteurs de Beamforming conjointement pour améliorer les performances de la technique de Beamforming. Il accroît le débit moyen en augmentant la capacité moyenne du RB. Comme plusieurs paramètres sont pris en compte, la complexité augmente exponentiellement aussi. Dans cette thèse, nous avons développé une méthode itérative pour réduire la complexité. Notamment, elle améliore de plus de 10% le débit des utilisateurs en bord de la cellule.2. Contrairement aux performances des algorithmes qui maximisent le débit global du réseau, les approches d’allocation de ressources à base de théorie des jeux maximisent la fonction d'utilité des UE du point de vue économique. Si le modèle a une solution NBS (Nash Bargaining Solution) il offre une solution optimale de Pareto de la fonction d'utilité. L’allocation traditionnelle est d'optimiser l'allocation de sous-porteuses à chaque intervalle de temps, mais dans le système OFDMA, les sous-porteuses sont formées de RBs dans le temps. Nous proposons une approche RB NBS, qui est plus efficace que les schémas existants. Nous analysons les canaux de fast-fading et les comparons sans l'influence de l’atténuation. En raison de la grande atténuation de signal en bordure de la cellule, l’utilisateur a toujours des RB de plus faible capacité que celui au centre de la cellule. Notre idée est d'ajouter un facteur de compensation pour combattre l'influence de la perte de propagation. Les facteurs de compensation sont soigneusement choisis afin de maximiser la fonction NBS. Cependant, le calcul de ces facteurs a une grande complexité et nous développons quatre solutions approchées qui donnent les mêmes performances avec une bonne précision. L'évaluation des performances de notre approche confirme que notre méthode et ses solutions approchées sont capables de partager équitablement les ressources sur toute la cellule. / This research takes place in the context of Private Mobile Radio networks evolution which aims at designing a new LTE based PMR technology dedicated to public security services. As the frequency bands dedicated to this service is scarce and the need of public safety forces is different, we have revisited the Resource Allocation problem in this thesis with two main objectives: designing new allocation algorithms which outperform the spectrum efficiency and serving fairly the users instead of maximizing the global network throughput.This thesis proposes new Resource Block (RB) allocation strategies in LTE downlink systems. Instead of the well-known resource allocation algorithms, which work on the condition that the RB capacity is already estimated, our RB allocation schemes can improve the potential of the channel capacity, using Beamforming cooperation and game-theoretical problems1. With the MIMO (Multiple-Input-Multiple-output) antennas, the Beamforming technique improves the received signal in order to increase the SINR (Signal-to-Interference-plus-Noise-Ratio), but the improved signal may also influence the inter-cell interference in the neighbouring cells. As inter-cell interference is the main interference in the OFDMA system, a smart scheduling can choose UEs (User Equipment) in adjacent cells to control interference increment caused by Beamforming.In traditional methods, the scheduler allocates RBs to UEs depending on the RB capacities and other parameters, the system then applies the Beamforming technique to these chosen UEs. After the Beamforming, the RB capacity varies but the scheduler keeps the same allocation.Our scheme allocates the RBs and chooses Beamforming vectors at the same time to enhance the performance of the Beamforming technique. It increases the average throughput by increasing the RB’s average capacity. Because more parameters are taken into account, the complexity also increases exponentially. In the thesis we find an iterative method to reduce the complexity. From the simulations, our iterative method also has good performance and improves more than 10% of throughput on the cell edge.2. In contrast to the performance first algorithms, game theoretic allocation schemes maximize the UEs’ utility function from the economical point of view. The NBS (Nash Bargaining Solution) offers a Pareto optimal solution for the utility function.The traditional NBS allocation in an OFDMA system is to optimize the subcarrier allocation at each time slot, but in the OFDMA system, the subcarriers are composed of Resource Blocks (RB) in time series. We propose an RB NBS approach, which is more efficient than the existing subcarrier NBS allocation scheme.We analyze the fast-fading channels and compare them without the path-loss influence. Because of the great path-loss in cell edge, the edge UE always has lower RB capacity than the cell center UE. Our idea is to bring in a compensating factor to overcome this path-loss influence, and the compensating factors are carefully chosen to maximize the NBS function. However, the computation of these factors has a high complexity and we develop four approximated solutions which give same performance and accuracy. The performance evaluation confirms that our method and its approximated solutions are able to spread resources fairly over the entire cell.
|
Page generated in 0.1048 seconds