• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 220
  • 25
  • 20
  • 13
  • 12
  • 10
  • 5
  • 4
  • 4
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 424
  • 116
  • 96
  • 87
  • 80
  • 75
  • 74
  • 74
  • 54
  • 45
  • 44
  • 43
  • 43
  • 40
  • 38
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

L'imagerie échographique ultrarapide et son application à l'étude de la viscoelasticité du corps humain

Bercoff, Jeremy 12 1900 (has links) (PDF)
Augmenter la cadence d'image des échographes est un des enjeux majeurs de l'imagerie ultrasonore. Il y a, en effet, avec l'avènement de l'échographie tridimensionnelle, un réel besoin d'accélérer l'acquisition des signaux ultrasonores tout en gardant une très bonne qualité d'image. Les échographes à haute cadence pourraient également imager des mouvements tissulaires très rapides, aujourd'hui indétectables, et offrir de nouvelles perspectives au diagnostic médical.En se basant sur un échographe complètement programmable développé au laboratoire Ondes et Acoustique, ce travail de thèse explore les potentialités d'une imagerie ultrarapide et en particulier son application à l'étude des propriétés viscoélastiques des tissus biologiques.Dans une première partie, nous explorons les méthodes pour parvenir à une imagerie ultrarapide (200 à 10000 Hz) et leurs conséquences sur la qualité de l'image échographique. Ces cadences sont ensuite utilisées pour imager la propagation d'ondes de cisaillement impulsionnelles dans les tissus mous. Sensibles aux propriétés viscoélastiques des tissus, ces ondes peuvent être d'un grand intérêt pour la détection et le diagnostic de pathologies telles que le cancer du sein. La génération de ces ondes dans le corps est faite à distance par une source mécanique mobile crée par force de radiation et se déplaçant à une vitesse supersonique. Cette nouvelle technique de diagnostic, baptisée "Supersonic Shear Imaging" a été validé in vitro et in vivo. Elle devrait fournir au médecin une cartographie quantitative des paramètres élastiques et visqueux du corps humain.
282

Transmission distribuée dans le canal multi-antennaire à interférences

Ho, Ka Ming 20 December 2010 (has links) (PDF)
Dans cette thèse, notre objectif est d'optimiser les stratégies de transmission et de réception dans un réseau où il y a peu ou pas de gestion centrale des ressources du tout, et o'u les nœuds ont une connaissance limitée du canal avec seulement un lien restreint entre eux. En particulier, les ́émetteurs ont la plupart du temps des informations locales seulement sur le canal, et nous considérons qu'il n'y a pas de partage des données 'a transmettre aux utilisateurs, ce qui empêche la transmission conjointe en système virtuel MIMO. L'utilisation commune des ressources du système (par exemple en transmettant en même temps et dans la même bande de fréquence) conduit 'a la génération d'interférence au niveau des différents récepteurs, ce qui rend la gestion des interférences essentielle. En considérant l'optimisation du précodeur dans le cadre de la théorie des jeux, des stratégies extrêmes, égoïste ou altruiste, peuvent être ́définies. Un émetteur égoïste agit en prenant compte de son propre intérêt et recherche la maximisation de son propre rapport signal sur bruit plus interférence (SINR) sans considération des interférences générées aux autres récepteurs. Un émetteur altruiste, par contre, utilise toutes ses ressources afin d'annuler les interférences qu'il crée aux autres récepteurs. Il est intuitif qu'aucune de ces deux stratégies extrêmes n'est optimale pour maximiser le débit total du réseau. Un travail récent sur le design du vecteur de précodage dans un canal d'interférence MISO (MISO-IC) sans décodage des interférences au récepteur (SUD) a mis en évidence qu'il est possible, en balançant les approches égoïste et altruiste, d'atteindre un point d'opération se situant sur la frontière Pareto optimale de la région de débit, qui est la frontière limitant la région des débits atteignables par l'utilisation de précodage linéaire. En gardant 'a l'esprit ce résultat, nous étudions l'optimisation distribuée des vecteurs de précodage pour le MISO-IC-SUD dans le chapitre 2. Nous développons un algorithme qui est initialisé 'a l'équilibre de Nash (point d'opération égoïste) et se déplace 'a chaque itération vers la solution du zéro-forcing (point d'opération altruiste) 'a pas fixe. L'algorithme s'arrête si un des émetteurs observe une baisse de son débit, imitant ainsi le procédé de négociation. L'algorithme propos ́e atteint un point d'opération proche de la frontière Pareto optimale, et chaque utilisateur obtient un débit supérieur 'a celui qu'il aurait eu 'a l'équilibre de Nash. Nous démontrons ainsi que les joueurs (les paires ́émetteur-récepteur) peuvent atteindre des débits supérieurs dans le MISO-IC-SUD en coopérant et en balançant égoïsme et altruisme. Le problème du design des vecteurs de précodage pour le MISO-IC-SUD est étendu au cas du MIMO-IC-SUD au chapitre 3. En supposant une connaissance locale, nous modélisons ce problème en un jeu bayésien prenant en compte le fait que le canal ne soit pas complètement connu, et o'u les joueurs maximisent l'espérance de leur fonction d'utilité 'a partir des statistiques du canal. Nous trouvons le point d'équilibre de ce jeu bayésien et étudions la maximisation de la somme des débits dans un MIMO-IC-SUD. Nous observons que la maximisation du débit total peut aussi être interprétée dans ce scénario comme un équilibre entre les approches égoïstes et altruistes. Avec cette analyse, un algorithme dans lequel les vecteurs de transmission et de réception sont obtenus par une optimisation alternée aux émetteurs et aux récepteurs est développé. L'algorithme converge vers une solution qui aligne les interférences lorsque le SNR devient large, ce qui implique que le débit total augmente indéfiniment avec le SNR (avec une pente égale aux nombre de degrés de liberté). Dans le régime 'a faible SNR, notre approche fonctionne mieux que les algorithmes conventionnels visant 'a aligner les interférences, ce qui est une conséquence de l'équilibre entre égoïsme et altruisme. En particulier, l'algorithme propos ́e atteint des performances presque optimales dans des réseaux asymétriques pour lesquels certains récepteurs sont soumis 'a du bruit de fond incontrôlé. Dans le chapitre 4, nous considérons enfin des récepteurs ayant la capacité de décoder les interférences (IDC) dans un MISO-IC. Ce degré de liberté additionnel permet aux récepteurs de décoder les interférences et de les soustraire au signal reçu, ce qui permet ainsi d'obtenir une communication sans interférence. En revanche, les choix des récepteurs dépendent des vecteurs de précodage aux émetteurs. Pour chaque choix de vecteur de précodage, nous obtenons un nouveau SISO-IC avec une nouvelle région de capacité correspondante. Ainsi, nous devons choisir pour chaque réalisation d'un canal MISO le vecteur de précodage et la puissance de transmission de manière 'a atteindre un débit maximal après avoir considéré toutes les possibilités pour les actions des récepteurs (décodage des interférences ou traitement des interférences comme du bruit). Il y a trois paramètres influant le design: la structure du récepteur, le vecteur de précodage, et la puissance de transmission. Ces trois paramètres sont interdépendants et l'obtention du triplet optimal est un problème qui a ́et ́e démontré comme étant NP-complet. Quoi qu'il en soit, nous avons simplifié cette analyse en reformulant la région des débits atteignables d'un MISO-IC-IDC comme l'union des régions pour les différentes structures. Ensuite nous avons caractérisé les limites de ces régions de débit atteignable et obtenu ainsi la frontière Pareto optimale du problème initial. Les vecteurs de précodage Pareto optimaux sont obtenus par une combinaison linéaire de deux vecteurs du canal avec des poids dépendant seulement de deux scalaires réels entre zéro et un. Nous utilisons ensuite cette caractérisation de la frontière Pareto optimale pour obtenir une caractérisation du point o'u le débit total maximum est atteint. Cet ensemble de solutions potentielles est un sous-ensemble strict de la frontière Pareto optimale, ce qui réduit ainsi considérablement l'espace de recherche du problème NP-complet initial.
283

Matched Field Beamforming applied to Sonar Data / Matchad lobformning för sonar data

Lundström, Tomas January 2008 (has links)
<p>Two methods for evaluating and improving plane wave beamforming have beendeveloped. The methods estimate the shape of the wavefront and use theinformation in the beamforming. One of the methods uses estimates of the timedelays between the sensors to approximate the shape of the wavefront, and theother estimates the wavefront by matching the received wavefront to sphericalwavefronts of different radii. The methods are compared to a third more commonmethod of beamforming, which assumes that the impinging wave is planar. Themethods’ passive ranging abilities are also evaluated, and compared to a referencemethod based on triangulation.Both methods were evaluated with both real and simulated data. The simulateddata was obtained using Raylab, which is a simulation program based on ray-tracing. The real data was obtained through a field-test performed in the Balticsea using a towed array sonar and a stationary source emitted tones.The performance of the matched beamformers depends on the distance to the tar-get. At a distance of 600 m near broadside the power received by the beamformerincreases by 0.5-1 dB compared to the plane wave beamformer. At a distance of300 m near broadside the improvement is approximately 2 dB. In general, obtain-ing an accurate distance estimation proved to be difficult, and highly dependenton the noise present in the environment. A moving target at a distance of 600 mat broadside can be estimated with a maximum error of 150 m, when recursiveupdating of the covariance matrix with a updating constant of 0.25 is used. Whenrecursive updating is not used the margin of error increases to 400 m.</p>
284

Collaborative beamforming for wireless sensor networks

Ahmed, Mohammed 11 1900 (has links)
Collaborative Beamforming (CB) has been introduced in Wireless Sensor Networks (WSNs) context as a long-distance and power-efficient communication scheme. One challenge for CB is the randomness of sensor node locations where different network realizations result in different CB beampatterns. First, we study the effect of sensor node spatial distribution on the CB beampattern. The characteristics of the CB beampattern are derived for circular Gaussian distributed sensor nodes and compared with the case of uniform distributed sensor nodes. It is shown that the mainlobe behavior of the CB beampattern is essentially deterministic. This suggests that the average beampattern characteristics are suitable for describing the mainlobe of a sample beampattern. However, the CB beampattern sidelobes are random and highly depends on the particular sensor node locations. Second, we introduce the multi-link CB and address the problem of random sidelobes where high level sidelobes can cause unacceptable interference to unintended Base Stations or Access Points (BSs/APs). Centralized sidelobe control techniques are impractical for distributed sensor nodes because of the associated communication overhead for each sensor node. Therefore, we propose a node selection scheme as an alternative to the centralized sidelobe control which aims at minimizing the interference at unintended BSs/APs. Our algorithm is based on the use of the inherent randomness of the channels and a low feedback that approves/rejects tested random node combinations. The performance of the proposed algorithm is analyzed in terms of the average number of trials and the achievable interference suppression and transmission rate. Finally, we study CB with power control aiming at prolonging the lifetime of a cluster of sensor nodes in the WSN. The energy available at different sensor nodes may not be the same since different sensor nodes may perform different tasks and not equally frequently. CB with power control can be used to balance the individual sensor nodes' lifetimes. Thus, we propose a distributed algorithm for CB with power control that is based on the Residual Energy Information (REI) at each sensor node while achieving the required average SNR at the BS/AP. The effectiveness of the proposed CB with power control is illustrated by simulations. / Communications
285

Multi-antenna Relay Beamforming with Per-antenna Power Constraints

Xiao, Qiang 27 November 2012 (has links)
Multi-antenna relay beamforming is a promising candidate in the next generation wireless communication systems. The assumption of sum power constraint at the relay in previous work is often unrealistic in practice, since each antenna of the relay is limited by its own front-end power amplifier and thus has its own individual power constraint. In this thesis, given per-antenna power constraints, we obtain the semi-closed form solution for the optimal relay beamforming design in the two-hop amplify-and-forward relay beamforming and establish its duality with the point-to-point single-input multiple-output (SIMO) beamforming system. Simulation results show that the per-antenna power constraint case has much lower per-antenna peak power and much smaller variance of per-antenna power usage than the sum-power constraint case. A heuristic iterative algorithm to minimize the total power of relay network is proposed.
286

Multi-antenna Relay Beamforming with Per-antenna Power Constraints

Xiao, Qiang 27 November 2012 (has links)
Multi-antenna relay beamforming is a promising candidate in the next generation wireless communication systems. The assumption of sum power constraint at the relay in previous work is often unrealistic in practice, since each antenna of the relay is limited by its own front-end power amplifier and thus has its own individual power constraint. In this thesis, given per-antenna power constraints, we obtain the semi-closed form solution for the optimal relay beamforming design in the two-hop amplify-and-forward relay beamforming and establish its duality with the point-to-point single-input multiple-output (SIMO) beamforming system. Simulation results show that the per-antenna power constraint case has much lower per-antenna peak power and much smaller variance of per-antenna power usage than the sum-power constraint case. A heuristic iterative algorithm to minimize the total power of relay network is proposed.
287

Fairness Analysis of Wireless Beamforming Schedulers

Bartolomé Calvo, Diego 12 January 2005 (has links)
Aquesta tesi es dedica a l'anàlisi de la justícia a la capa física en entorns de comunicacions amb múltiples antenes i diversos usuaris, cosa que implica un nou punt de vista sobre problemas tradicionals. Malgrat això, el grau d'equitat o desigualtat en la distribució de recursos ha estat estudiat en profunditat en altres camps com Economia o Ciències Socials. En el fons, el enginyers tendeixen a optimizar les prestacions globals, però quan hi ha múltiples usuaris en escena, aquella optimització no és necessàriament la millor opció. En sistemes mòbils, per exemple, l'usuari amb unes males condicions de canal pot patir les conseqüències d'un controlador central que basi les seves decisions en la millor qualitat instantània del canal. En aquest sentit, el problema s'encara des de quatre perspectives diferents: processament d'antenes, assignació de potència, assignació de bits, i combinació de diversitat en espai (SDMA) amb múltiples subportadores (OFDM).Abans del contingut tècnic, es descriu en detall l'entorn on s'emmarca aquesta tesi. La contribució de l'autor com a tal comença amb l'anàlisi de la justícia no només pel processament al transmissor, però també pel límit superior que representa la tècnica cooperativa entre el transmissor i el receptor. L'anàlisi de SNR pel forçador de zeros, el dirty paper i l'estratègia cooperativa entre transmissor i receptor està basada en la teoria de carteres, i consisteix bàsicament a calcular la mitja i la variància de cada esquema. Es veu que una mitja superior ve donada per una major variància en l'assignació de recursos. Així com a aquestes tècniques d'antenes, la justícia hi és implícita, es fa totalment explícita en la tria d'una tècnica de distribució de potència amb un conformador forçador de zeros. Llavors, les funcions objectiu tradicionals a la literatura es comparen en termes de justícia, això és en termes del màxim i el mínim, a més de la mitja o la suma. Aquí es pot veure que optimitzar les prestacions globals d'una cel·la (p.ex tècniques de mínima suma de BER o màxima suma de rate) implica una distribució més desigual dels recursos entre els usuaris. Per una altra banda, les tècniques max-min tendeixen a fer una distribució dels recursos més paritària entre els usuaris, alhora que perden en prestacions globals.A més, l'assignació de potència basada en teoria de jocs es compara a les tècniques tradicionals, i es mostra que la funció d'utilitat àmpliament utilitzada en aquest context té una taxa d'error inacceptable. Llavors, la funció a optimitzar s'ha de triar de forma acurada, per tal d'evitar possibles conseqüències indesitjables. Un altre problema interessant és el control d'admissió, és a dir, la selecció d'un subconjunt d'usuaris que han de ser servits simultàniament. Normalment, el control d'admissió és necessari per complir els requeriments de les comunicacions, en termes de retard o taxa d'error, entre d'altres. Es proposa un nou algoritme que està entre mig de les tècniques tradicionals a l'eix de la justícia, l'assignació uniforme de potència i l'esquema que dóna igual rate i BER a tots els usuaris.Després d'això, l'anàlisi de la justícia es fa per l'assignació de bits. Primer, el punt de vista tradicional de la maximització de la suma de rates es contraposa a la maximització de la mínima rate, que finalment assigna a tots el usuaris un número igual de bits. Un altre cop, el controlador central ha de balancejar les necessitats individuals amb les prestacions globals. Malgrat això, es proposa un algoritme que té un comportament intermig entre els esquemes tradicionals. A més, s'estudien una extensió per tal de combinar la diversitat en espai amb la freqüencial, per tant, s'analitzen sistemes SDMA/OFDM, pels quals s'extenen els algoritmes inicialment dissenyats per SDMA. Com que les funcions objectiu són NP-completes i molt difícils de resoldre fins i tot amb un nombre moderat d'usuaris i antenes, les solucions subòptimes són clarament bones candidates. A més, temes pràctics com la senyalització i la reducció en complexitat són tractats des d'un clar punt de vista d'enginyeria. / This dissertation is devoted to the analysis of fairness at the physical layer in multi-antenna multi-user communications, which implies a new view on traditional techniques. However, the degree of equality/inequality of any resource distribution has been extensively studied in other fields such as Economics or Social Sciences. Indeed, engineers usually aim at optimizing the total performance, but when multiple users come into play, the overall optimization might not necessarily be the best thing to do. For instance in wireless systems, the user with a bad channel condition might suffer the consequences from the selective choice based on the instantaneous channel quality made by a centralized entity. In this sense, the problem has four different perspectives: antenna processing, power allocation, bit allocation, and combination of space diversity (SDMA) with multiple subcarriers (OFDM).Before the technical content, the landscape where this dissertation is contained is described in detail. The contribution of the author starts with the analysis of fairness conducted not only for transmit processing, but also for the upper bound that represents the cooperative strategy between the transmitter and the receiver. The SNR analysis for zero forcing, dirty paper, and the cooperative scheme, is based on portfolio theory, and basically consists of the computation of the mean and the variance of each scheme. Interestingly, a higher mean performance comes at the expense of a higher variance in the resource allocation. Whereas in these antenna array techniques, the fairness is implicit, it is made explicit afterwards by the selection of a power allocation technique with a zero forcing beamforming. The traditional objective functions available in the literature are here compared in terms of fairness, i.e. not only the mean or sum value are analyzed, but also the minimum and the maximum. It can be stated that optimizing the global performance of a cell (e.g. a minimum sum BER or maximum sum rate techniques) comes at the expense of an uneven distribution of the resources among the users. On the other hand, max-min techniques tend to distribute the resources more equally at the expense of loosing in global performance.Moreover, the game-theoretic power allocation is compared to traditional techniques, and it is shown that the widespread utility function in this context yields an unacceptable BER. Therefore, the optimizing criterion shall be carefully chosen to avoid undesirable operating consequences. Another interesting problem is the admission control, that is, the selection of a subset of users that are scheduled for transmission. Usually, this selection shall be done because the QoS requirements of the communications, e.g. in terms of delay or error rate, prevent all the users from being served. A new algorithm is proposed that balances between the traditional techniques on the extremes of the fairness axis, the uniform power allocation and the equal rate and BER scheme.After that, the fairness analysis is conducted for the integer bit allocation. First, the traditional approach of the maximization of the sum rate is opposed to the maximization of the minimum rate technique, which ultimately assigns an equal number of bits for all the users. Again, the centralized controller shall balance between the global performance and the individual needs. Nevertheless, an algorithm is proposed, which yields an intermediate behavior among the other traditional schemes. Then, an extension is developed in order to combine the spatial diversity with frequency diversity, that is, SDMA/OFDM systems are analyzed and the initial algorithms for SDMA are extended for such a case. Since the objective functions are NP-complete and very hard to solve even with moderate number of users and antennas, several suboptimal solutions are motivated. Moreover, practical issues such as signaling or a reduction in complexity are faced from a clear engineering point of view.
288

Analog Signal Processor for Adaptive Antenna Arrays

Hossu, Mircea January 2007 (has links)
An analog circuit for beamforming in a mobile Ku band satellite TV antenna array has been implemented. The circuit performs continuous-time gradient descent using simultaneous perturbation gradient estimation. Simulations were performed using Agilent ADS circuit simulator. Field tests were performed in a realistic scenario using a satellite signal. The results were comparable to the simulation predictions and to results obtained using a digital implementation of a similar stochastic approximation algorithm.
289

Matched Field Beamforming applied to Sonar Data / Matchad lobformning för sonar data

Lundström, Tomas January 2008 (has links)
Two methods for evaluating and improving plane wave beamforming have beendeveloped. The methods estimate the shape of the wavefront and use theinformation in the beamforming. One of the methods uses estimates of the timedelays between the sensors to approximate the shape of the wavefront, and theother estimates the wavefront by matching the received wavefront to sphericalwavefronts of different radii. The methods are compared to a third more commonmethod of beamforming, which assumes that the impinging wave is planar. Themethods’ passive ranging abilities are also evaluated, and compared to a referencemethod based on triangulation.Both methods were evaluated with both real and simulated data. The simulateddata was obtained using Raylab, which is a simulation program based on ray-tracing. The real data was obtained through a field-test performed in the Balticsea using a towed array sonar and a stationary source emitted tones.The performance of the matched beamformers depends on the distance to the tar-get. At a distance of 600 m near broadside the power received by the beamformerincreases by 0.5-1 dB compared to the plane wave beamformer. At a distance of300 m near broadside the improvement is approximately 2 dB. In general, obtain-ing an accurate distance estimation proved to be difficult, and highly dependenton the noise present in the environment. A moving target at a distance of 600 mat broadside can be estimated with a maximum error of 150 m, when recursiveupdating of the covariance matrix with a updating constant of 0.25 is used. Whenrecursive updating is not used the margin of error increases to 400 m.
290

Analog Signal Processor for Adaptive Antenna Arrays

Hossu, Mircea January 2007 (has links)
An analog circuit for beamforming in a mobile Ku band satellite TV antenna array has been implemented. The circuit performs continuous-time gradient descent using simultaneous perturbation gradient estimation. Simulations were performed using Agilent ADS circuit simulator. Field tests were performed in a realistic scenario using a satellite signal. The results were comparable to the simulation predictions and to results obtained using a digital implementation of a similar stochastic approximation algorithm.

Page generated in 0.4586 seconds