• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1396
  • 455
  • 190
  • 2
  • 1
  • 1
  • Tagged with
  • 2399
  • 547
  • 529
  • 457
  • 368
  • 343
  • 338
  • 329
  • 274
  • 243
  • 208
  • 207
  • 186
  • 186
  • 184
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Conception d'une station d'acquisition d'images infrarouges et d'autres données contrôlée à distance S.A.I.I.A.A.D.

Béland, Marc-André 07 1900 (has links) (PDF)
No description available.
92

Étude et optimisation d'un générateur photovoltaïque pour la recharge d'une batterie avec un convertisseur Sepic

Abada, Sofiane 12 1900 (has links) (PDF)
No description available.
93

Développement d'algorithmes de détection de défauts pour la maintenance prédictive de générateurs hydroélectriques

Cyr, Charles 03 1900 (has links) (PDF)
Les arrêts de production dus à des défauts de l’équipement sont coûteux dans les centrales hydroélectriques. Ces arrêts peuvent être causés par un mauvais asservissement de la vitesse des générateurs. L’utilisation d’un système de monitoring des performances de régulation permet de connaître à intervalle rapproché l’état de l’asservissement de vitesse des générateurs. Les méthodes de détection de défauts développées et appliquées aux générateurs déterminent la probabilité d’occurrence d’un arrêt de production engendré par une instabilité. L’utilisation des méthodes classiques de supervision des procédés intégrées à l’aide de l’analyse par composantes principales permet d’obtenir une détection et une localisation des défauts présents dans les régulateurs et les générateurs hydroélectriques. Les résultats obtenus sont présentés sous forme de graphiques aisément interprétables.
94

Nettoyage d'une carte de primitives par appariement et relaxation

Filiatrault, Alexandre 08 1900 (has links) (PDF)
No description available.
95

Combinaison d'informations hétérogènes dans le cadre unificateur des ensembles aléatoires : approximations et robustesse

Florea, Mihai Cristian 09 1900 (has links) (PDF)
Dans ce travail nous nous intéressons aux problèmes liés à la combinaison d’informations en provenance de sources multiples. Nous proposons de représenter les informations en provenance de la théorie des ensembles flous (FST) et de la théorie de l’évidence (DST) dans le cadre unificateur des ensembles aléatoires (RST). Le processus de combinaison fait face à deux problématiques majeures : (1) une explosion du temps de calcul dû au grand nombre d’éléments focaux, et (2) la combinaison d’informations en conflit total. Nous proposons dans un premier temps de réduire le temps de calcul du processus de combinaison, en appliquant une approximation directe aux informations de la FST qui s’avère très efficace lorsque la cardinalité du cadre de discernement est élevée. Dans un deuxième temps nous proposons une formulation générale pour les règles de combinaison de la RST, ainsi qu’une nouvelle classe de règles adaptatives qui a l’avantage de (a) prendre en compte de manière automatique la fiabilité des sources, (b) combiner des informations définies sur des cadres de discernement différents et homogènes. Elle possède un comportement similaire à la règle conjonctive lorsque les sources sont en accord et un comportement similaire à la règle disjonctive lorsque les sources sont en désaccord.
96

Application de réseaux Mesh dans un milieu confiné

Moutairou, Manani 07 1900 (has links) (PDF)
Cette thèse aborde le problème d’optimisation du déploiement des réseaux sans fil Mesh (Wireless Mesh Network) pour des applications large bande en milieu souterrain. Le déploiement des éléments du réseau a nécessité des études expérimentale et analytique du milieu. L’étude expérimentale nous a permis de mieux cerner la topologie du milieu, de modéliser statistiquement le signal reçu et, surtout, d’étudier la couverture radio des éléments du réseau en fonction de leur localisation dans le milieu. Aussi, du point de vue réseau, certains comportements des réseaux à sauts multiples et à plusieurs interfaces radio ont été abordés. Il s’agit, par exemple, du problème de la limitation de la capacité globale du réseau engendrée par le nombre important de relais que subissent les paquets dans le réseau. L’étude analytique quant à elle nous a permis de proposer trois approches de déploiement du réseau en milieu souterrain. Les différentes approches topologiques se distinguent selon qu’elles apportent au réseau une performance importante, une robustesse ou, finalement, une réduction globale du coût de déploiement. Une première approche topologique consiste à trouver la ou les positions idéales de la passerelle qui permettent de réduire l’étranglement du réseau WMN en période de trafic très dense. Dans un milieu confiné, la topologie du réseau est étroitement liée à la configuration géométrique du milieu et, on peut aisément comprendre, le fait que certains liens du réseau sur utilisés (dépendamment du protocole de routage adopté) puissent compromettre la performance globale du réseau. Avec une telle configuration, tous les nœuds voisins achemineront le trafic à travers les mêmes liens sans fil dont les capacités sont bien sûr limitées. La seconde approche topologique gère le problème de positionnement d’une passerelle de manière locale par formation de clusters (regroupements) indépendants. Elle nécessite des études préalables sur le comportement du réseau dans le milieu de déploiement. Ces études permettront de déterminer le dimensionnement de l’arbre qu'il convient de déployer pour la mise en place du réseau par regroupement arborescent (cluster) des éléments du réseau dans le milieu. Le dimensionnement de l’arbre recouvrant le sous-réseau tient étroitement compte de la densité du trafic dans celui-ci. Cette seconde approche vient diminuer voire même résoudre le problème de congestion que peut poser l’approche initiale. Ce faisant, la taille de chaque cluster est rigoureusement dimensionnée de manière à autoriser une disponibilité conséquente de ressources quelque soit la position des usagers dans le réseau. Elle répond également à cette flexibilité tant recherchée en milieu souterrain de pouvoir déployer le réseau seulement à l’endroit où le besoin se fait sentir. Cette flexibilité qu’offre le réseau permet, par-dessus tout, aux industries minières de faire d’énormes économies en matière d’achats d’équipements de réseau. Notre apport le plus significatif se situe au niveau de la performance de l’algorithme ‘Competitive Greedy’(CG)’ mis de l’avant pour gérer le réseau selon cette deuxième approche de positionnement de passerelles .Bien que la ‘Competitive Greedy’ soit légèrement plus gourmande en temps calcul que certains algorithmes existant dans la littérature, elle offre la meilleure solution en ce qui concerne le coût global du réseau (des solutions optimales qui permettent de réduire le coût du réseau). Ces performances seront minutieusement présentées et cet algorithme tient compte de la topologie du réseau, permet de gérer la taille du cluster, le nombre de relais que peut supporter chaque élément du réseau et, enfin, le nombre maximal de sauts (profondeur du réseau) qui séparent un élément quelconque du cluster à l’élément central du réseau qui est la passerelle. La troisième approche topologique est légèrement plus chère que les deux premières approches à cause du nombre de passerelles qu’il faut déployer pour assurer la robustesse du réseau WMN. Elle vient surtout corriger une vulnérabilité du réseau qui réside dans la manière dont les passerelles sont déployées selon les deux approches précédentes. En effet, il peut arriver que le réseau soit exposé à différentes pannes et à d’éventuels accidents dans le milieu qui pourraient mettre en danger la sécurité de ses usagers. / This thesis focuses on an optimization problem of the deployment of Wireless Mesh Network in an underground mine environment. The deployment of the network’s devices required analytical and experimental studies of the mining area. The experimental study allowed us to better define the topology of the area, to model the received signal power with statistics and especially to study the radio coverage of the network’s elements according to their location in the mine. Moreover, multihop and multiradio wireless mesh networks’ behaviour in the area is also addressed. To elaborate, the problem of the limitation of the total available capacity is due to the number of relays (hops) the packets are subjected to in the network. In regards to the analytical study, three approaches of the network deployment in the underground area were proposed. These different topological approaches bring different results in the network depending on the performance, the robustness and the total reduction of expenses. The first topological approach consists in finding one or several optimal positions of the gateway which allows us to reduce the congestion of the WMN network in very dense traffic periods. In a confined area, the topology of the network is closely linked to the geometric shape of the area due to overused established links (based on the adopted routing protocol) that compromise the total performance of the network. The second topological approach manages the problem of position of a gateway in a local way by forming tree based independent clusters. It requires prior studies on the behaviour of the network in the deployed area. These studies will allow us to determine the size of the tree that is necessary to unfold the installation of the network by clustering the elements of the network in the area. The size of the sub-network tree will closely take into account the traffic density in the area. This second approach reduces, and even resolves the problem of congestion that can occur in the first approach. Each cluster is strictly sized in such a way that it allows the disposal of a minimum resource at the level of users in the network whatever their positions are. It also answers the question of flexibility looked after in the underground area that will allow us to unfold network only in the location where needed. This flexibility of the network allows mining industries to make huge savings while purchasing network equipments. The most significant concept introduced is the algorithm “Competitive Greedy (CG)” that allows us to manage this network approach. Competitive Greedy algorithm requires more work than existing ones, but it does offer the best solution regarding the total cost of the network (optimum resolutions which allow us to reduce network expenses). These performances will thoroughly be introduced and this algorithm will allow us to manage the size of the cluster, the numbers of relays that each element of the network can support, and finally the maximum number of hops (network depth) which separates the clusters’ element with its associated gateway. The third topological approach is a little bit more expensive compared to the first two approaches because of the number of gateways required to assure the robustness of the WMN. It resolves vulnerability problem of the network in the way gateways are deployed according to the first two approaches. In fact, this third approach is very important as it is possible that the network can expose different failure and possible accidents in the environment that can cause severe security problem to the users. /
97

Évaluation de l'effet des structures éoliennes sur la réception des signaux de télédiffusion

Haj Taieb, Mohamed 07 1900 (has links) (PDF)
No description available.
98

Codage vidéo distribué utilisant les turbo codes

Haj Taieb, Mohamed 10 1900 (has links) (PDF)
La charge de traitement de la compression vidéo est généralement assurée au niveau de l’émetteur dans les standards conventionnels de codage vidéo (MPEG, H.263, H.264/AVC [1]). Ce choix est dû au fait que l’émetteur dispose d’une connaissance totale de la source lui permettant d’assurer facilement et efficacement la compression. En outre, les applications habituelles de la transmission vidéo assurent un flux d’une station centralisée, disposant d’une capacité calculatoire élevée, vers un certain nombre de récepteurs. La charge de compression est ainsi effectuée une seule fois par une station adaptée à ce fait. Avec l’accroissement de l’interactivité de la téléphonie mobile, les abonnés sont en mesure d’émettre des séquences vidéo autant que d’en recevoir. Le flux vidéo est alors généré par le téléphone mobile à capacité limitée vers une station de base à capacité élevée. La compression ne peut se faire selon le schéma conventionnel et la complexité de la compression doit être transférée au décodeur. Les résultats théoriques de Slepian-Wolf [2] et leur extension par les travaux de Wyner-Ziv [3] pour le cas de codage avec perte et en présence d’information latérale constituent les bases théoriques du codage de sources distribuées. Ces résultats théoriques ont donné naissance à un vaste champ d’applications comme le récent paradigme de codage vidéo distribué, établi il y a juste quelques années. Dans cette thèse de doctorat, on présente une étude des divers systèmes de codage vidéo distribué dans le domaine pixel et dans le domaine transformé. Le décodeur exploite la corrélation entre la séquence à transmettre par le codeur et l’information latérale dont il dispose. Cette corrélation se traduit par un canal virtuel dont l’entrée est la trame à transmettre et la sortie est l’information latérale. Un code turbo est utilisé pour générer des bits de parité envoyés progressivement sous la demande du décodeur, pour corriger les erreurs de l’information latérale qui constitue une version bruitée de la trame originale. Dans ce travail, on implémente différents algorithmes de codage vidéo distribué basés sur les turbocodes dans le but de s’approcher des performances de la compression vidéo conventionnelle. / Most of the video compression processing is usually performed at the transmitter in the conventional video coding standards (MPEG, H.263, H.264/AVC [1]). This choice is due to the fact that the transmitter has full knowledge of its source to ensure easy and efficient compression. In addition, the usual applications of video transmission ensure a flow from a centralized station, with a higher computational capacity, to a number of receivers. The compression task is thus performed only once by a computationally adapted station. However, with the emergence of wireless surveillance locally distributed cameras, the growth of cellular interactive video applications as well as many other applications involving several low cost video encoders at the expense of high complexity central decoder, the compression task can no longer be handled by the encoder and thus the compression complexity should be transferred to the decoder. Slepian and Wolf information theoretical result on lossless coding for correlated distributed sources [2] and its extension to the lossy source coding case with side information at the decoder, as introduced by Wyner and Ziv [3], constitute the theoretical basis of distributed source coding. These theoretical concepts have given birth to a wide field of applications as the recent distributed video coding paradigm, established a few years ago. In this doctoral thesis, we present a study of various distributed video coding schemes in the pixel and transform domains. The decoder exploits the correlation between the video sequence to be transmitted by the encoder and the side information. This correlation can be seen as a virtual channel whose input is the frame to be transmitted and the output is the side information. Turbo coding is used to generate the parity bits which are sent, gradually upon decoder requests, to correct the errors in the side information considered as a noisy version of the original frame. In this work, we implement various algorithms for distributed video coding based on turbo codes in order to approach the efficiency of conventional video encoders.
99

Estimation efficace des paramètres de signaux d'usagers radio-mobile par traitement avec antenne-réseau

Racine, Emmanuel 11 1900 (has links) (PDF)
Cette thèse aborde le problème d’estimation des paramètres de signaux d’usagers radio-mobile par traitement avec antenne-réseau. On adopte une approche de traitement théorique rigoureuse au problème en tentant de pallier aux limitations et désavantages des méthodes d’estimation existantes en ce domaine. Les chapitres principaux ont été rédigés en couvrant uniquement les aspects théoriques en lien aux contributions principales, tout en présentant une revue de littérature adéquate sur les sujets concernés. La thèse présente essentiellement trois volets distincts en lien à chacune des contributions en question. Suite à une revue des notions de base, on montre d’abord comment une méthode d’estimation exploitant des statistiques d’ordre supérieur a pu être développée à partir de l’amélioration d’un algorithme existant en ce domaine. On présente ensuite le cheminement qui a conduit à l’élaboration d’une technique d’estimation non linéaire exploitant les propriétés statistiques spécifiques des enveloppes complexes reçues, et ne possédant pas les limitations des algorithmes du second et quatrième ordre. Finalement, on présente le développement relatif à un algorithme d’estimation exploitant le caractère cyclostationnaire intrinsèque des signaux de communication dans un environnement asynchrone naturel. On montre comment un tel algorithme parvient à estimer la matrice de canal des signaux incidents indépendamment du caractère de corrélation spatiotemporel du bruit, et permettant de ce fait même une pleine exploitation du degré de liberté du réseau. La procédure d’estimation consiste en la résolution d’un problème de diagonalisation conjointe impliquant des matrices cibles issues d’une opération différentielle entre des matrices d’autocorrélation obtenues uniquement à partir de statistiques d’ordre deux. Pour chacune des contributions, des résultats de simulations sont présentés afin de confirmer l’efficacité des méthodes proposées. / This thesis addresses the problem of parameter estimation of radio signals from mobile users using an antenna array. A rigorous theoretical approach to the problem is adopted in an attempt to overcome the limitations and disadvantages of existing estimation methods in this field. The main chapters have been written covering only the theoretical aspects related to the main contributions of the thesis, while at the same time providing an appropriate literature review on the considered topics. The thesis is divided into three main parts related to the aforesaid contributions. Following a review of the basics concepts in antenna array processing techniques for signal parameter estimation, we first present an improved version of an existing estimation algorithm expoiting higher-order statistics of the received signals. Subsequently, we show how a nonlinear estimation technique exploiting the specific statistical distributions of the received complex envelopes at the array can be developed in order to overcome the limitations of second and fourth-order algorithms. Finally, we present the development of an estimation algorithm exploiting the cyclostationary nature of communication signals in a natural asynchronous environment. We show how such an algorithm is able to estimate the channel matrix of the received signals independently of the spatial or temporal correlation structure of the noise, thereby enabling a full exploitation of the array’s degree of freedom. The estimation process is carried out by solving a joint diagonalization problem involving target matrices computed by a differential operation between autocorrelation matrices obtained by the sole use of second-order statistics. Various simulation experiments are presented for each contribution as a means of supporting and evidencing the effectiveness of the proposed methods.
100

Commande prédictive basée sur la simulation. Application à la flottation en colonne

Bouchard, Jocelyn 11 1900 (has links) (PDF)
Les structures de commande prédictive (MPC) utilisant des simulateurs dynamiques comme modèles de procédé ne font pas légion. Cette rareté s'explique en grande partie par la difficulté de résolution des problèmes d'optimisation résultants. En effet, les algorithmes de programmation non linéaire ne sont pas toujours adaptés pour atteindre efficacement l'optimum des fonctions basées sur des modèles physiques, à plus forte raison encore si les équations utilisées sont inconnues (modèles de type boîte noire). C'est en s'appuyant sur ce constat qu'une nouvelle approche pour la MPC est proposée. Le principe consiste à substituer la minimisation explicite de la fonction objectif par une simulation du système en boucle fermée pour solutionner de façon généralement sous-optimale le problème de contrôle en boucle ouverte. Cette nouvelle méthode permet d'exploiter plusieurs des avantages de la commande prédictive sans être limitée par la complexité des modèles. Deux algorithmes sont présentés: décentralisé et découplé. Bien qu'avantageuse sur le plan du réglage, la structure découplée ne permet pas la même liberté que la structure décentralisée pour le choix de l'horizon de prédiction qui doit généralement être du même ordre de grandeur que le temps de réponse en boucle ouverte. Le développement d'une structure de simulation du comportement dynamique de la flottation en colonne, un procédé de séparation des minéraux, représente la seconde contribution de cette thèse. Une grande lacune des simulateurs proposés à ce jour demeure que même lorsque les équations différentielles de conservation sont utilisées, les variations dynamiques du niveau de pulpe ne sont jamais considérées. La structure présentée ici s'intéresse à la simulation des mouvements des phases présentes et de leurs effets sur le niveau de pulpe et sur les débits de sortie. Par ailleurs, comme bien d'autres procédés minéralurgiques, la flottation en colonne a peu bénéficié des avancées en contrôle de procédés. C'est donc sur ce terrain que les deux thèmes étudiés se rencontrent lors d'une mise à l'épreuve conjointe. L'étude de cas proposée s'intéresse à l'asservissement de trois variables d'opération critiques pour le bon fonctionnement du procédé à savoir, la concentration d'air dans la zone de pulpe, le flux net d'eau à l'interface et le niveau de pulpe à l'aide d'un contrôleur prédictif basé sur la simulation. / Applications of dynamic simulators for model predictive controllers design are rather scarce in the litterature. The complexity of solving the resulting optimization problems may explain this lack of popularity. In fact, nonlinear programming algorithms are not always well suited to efficiently reach the optimum of a fundamentaly-based cost function. The situation is even worse when the equations used in the model are unknown by the control designers (black box models). The simulation-based model predictive controller is an alternative formulation to perform model predictive control (MPC) without making use of any explicit optimization solver, but rather based on an easy-to-compute closed-loop simulation. The resulting scheme generally provides a sub-optimal solution and benefits from many interesting features of conventional MPC without being restricted by the model complexity. Two algorithms are proposed: decentralized and decoupled. The decentralized simulation structure allows a flexible setting of the prediction horizon (Hp) that is not possible in the decoupled case, easier to tune, but where Hp must generally be in the same order of magnitude that the system settling time. A second contribution of this thesis is the development of a framework for the dynamic simulation of a mineral separation process: column flotation. Until now, most of the proposed models or simulators were restricted to the steady-state behavior. When dynamic mass-balance equations were considered, a constant pulp level during the simulation was always assumed. The presented framework aims to simulate water, solids and gas motion and their effect on the pulp level and output flow rates. As it often happens in mineral processing, the column flotation process has not benefited from advanced control techniques. This is where the two previous subjects merge. The proposed simulation framework is used to design a simulation-based model predictive controller for process variables having a strong influence on metallurgical results (grade and recovery). A case study is presented where the pulp level, bias and air hold-up in the pulp zone are kept within an acceptable operating region.

Page generated in 0.0244 seconds