• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Théorie du contrôle optimal et calcul des variations

Atteia, Marc 01 January 1966 (has links) (PDF)
La théorie du contrôle optimal s'est très rapidement développée depuis quelques années. Différentes méthodes ont été proposées pour aborder le problème. Nous développons ci-dessous une méthode due essentiellement à M. Hestenes
92

Traitement de l'information par calcul digital : application à la mesure des débits par moulinets

Le Goff, Roger 19 October 1962 (has links) (PDF)
.
93

Essai d'une étude statistique des erreurs de calcul

Gorog, Etienne 01 January 1961 (has links) (PDF)
.
94

De l’exécution structurée d’applications scientifiques OpenMP sur architectures hiérarchiques

Broquedis, François 09 December 2010 (has links)
Le domaine applicatif de la simulation numérique requiert toujours plus de puissance de calcul. La technologie multicœur aide à satisfaire ces besoins mais impose toutefois de nouvelles contraintes aux programmeurs d’applications scientifiques qu’ils devront respecter s’ils souhaitent en tirer la quintessence. En particulier, il devient plus que jamais nécessaire de structurer le parallélisme des applications pour s’adapter au relief imposé par la hiérarchie mémoire des architectures multicœurs. Les approches existantes pour les programmer ne tiennent pas compte de cette caractéristique, et le respect de la structure du parallélisme reste à la charge du programmeur. Il reste de ce fait très difficile de développer une application qui soit à la fois performante et portable.La contribution de cette thèse s’articule en trois axes. Il s’agit dans un premier temps de s’appuyer sur le langage OpenMP pour générer du parallélisme structuré, et de permettre au programmeur de transmettre cette structure au support exécutif ForestGOMP. L’exécution structurée de ces flots de calcul est ensuite laissée aux ordonnanceurs Cacheet Memory développés au cours de cette thèse, permettant respectivement de maximiser la réutilisation des caches partagés et de maximiser la bande passante mémoire accessible par les programmes OpenMP. Enfin, nous avons étudié la composition de ces ordonnanceurs, et plus généralement de bibliothèques parallèles, en considérant cette voie comme une piste sérieuse pour exploiter efficacement les multiples unités de calcul des architectures multicœurs.Les gains obtenus sur des applications scientifiques montrent l’intérêt d’une communication forte entre l’application et le support exécutif, permettant l’ordonnancement dynamique et portable de parallélisme structuré sur les architectures hiérarchiques. / Abstract
95

Reliable computation for geometric models

Jiang, Di January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
96

Stratégie multiéchelle pour l'analyse du couplage flambage-délaminage de composites stratifiés / Multiscale strategy for the simulation of combined delamination and buckling in composite laminates

Saavedra Redlich, Karin 02 February 2012 (has links)
Ces travaux de thèse, menés dans le cadre du projet de recherche européen MAAXIMUS (More Affordable Aircraft through eXtended, Integrated and Mature nUmerical Sizing), portent sur la simulation numérique de problèmes d'interaction flambage-délaminage au sein de composites stratifiés. Cette interaction met en jeu des phénomènes non linéaires de natures différentes (flambages local et global de plis, initiation et propagation du délaminage, contact entre plis fissurés) qui entraînent des pertes de rigidité importantes et des instabilités, sur des géométries très élancées du fait de la forte différence d'échelle entre les zones délaminées et le pli élémentaire. En conséquence, la prédiction conduit à traiter des problèmes non linéaires de grande taille dont la résolution est uniquement envisageable par l'utilisation des architectures de calcul parallèle actuelles.Dans ce contexte de résolution parallèle, la stratégie multiéchelle LaTIn (Large Time Increment) de décomposition de domaine mixte présente de nombreux avantages déjà mis en évidence lors de travaux précédents dans le cas du délaminage et du contact en petites perturbations. Le but de cette thèse est donc de proposer une extension de la méthode aux grandes transformations.Une grande partie des travaux a été consacrée à s'affranchir des difficultés inhérentes aux structures élancées. Une étude des paramètres de la méthode dans les cas de la flexion, du flambage, du contact entre grandes surfaces fissurées et du délaminage, a été réalisée pour optimiser le taux de convergence, diminuer les temps de calcul et assurer l'extensibilité de la stratégie. / The presented work, within the framework of the European research project MAAXIMUS (More Affordable Aircraft through eXtended, Integrated and Mature nUmerical Sizing), is dedicated to the numerical prediction of combined buckling and delamination problems in composite laminates. This interaction involves non-linear phenomena of different natures (e.g. local and global buckling of plies, initiation and growth of delamination, contact between delaminated surfaces) resulting in important stiffness loss and instabilities, on very slender geometries due to the scale difference between delaminated areas and the thickness of the plies. Therefore, their prediction leads to very large and highly nonlinear numerical problems that can only be solved using parallel computing techniques.In this context, the Latin (Large Time Increment) multiscale strategy, which is based on a mixed domain decomposition, has many advantages already highlighted in previous works in the case of delamination and contact assuming small perturbations. The aim of this thesis is to include geometric nonlinearities into this existing multiscale framework.A major work has been devoted to overcome the difficulties associated with slender structures. A study of the parameters of the method in the case of bending, buckling, contact between large surfaces and delamination, was performed to optimize the convergence rate, reduce the computation time and ensure the scalability of the strategy.
97

Sur la robustesse d'une méthode de décomposition de domaine mixte avec relocalisation non linéaire pour le traitement des instabilités géométriques dans les grandes structures raidies / On the robustness of a mixed domain decomposition method with nonlinear relocalization for handling geometrical instabilities on large stiffened structures

Hinojosa Rehbein, Jorge Andrés 10 February 2012 (has links)
Les travaux de thèse portent sur l'évaluation et la robustesse des stratégies adaptées pour la simulation de grandes structures avec non-linéarités non équitablement réparties, tels le flambage local, et des non-linéarités globales dans les structures aéronautiques. La stratégie dite de « relocalisation non-linéaire » permet l'introduction de schémas de résolution non-linéaire par sous-structure au sein des méthodes de décomposition de domaine classiques.Dans un premier temps, les performances et la robustesse de la méthode sont présentées sur des exemples de structures représentatives des cas industriels. Dans un second temps, la stratégie est complètement parallélisée et des études de « speed-up » et de « extensibilité » sont menées. Enfin, la méthode est testée sur des structures réalistes et de grandes tailles. / The thesis work focus on the evaluation and the robustness of adapted strategies for the simulation of large structures with not equitably distributed nonlinearities, like local buckling, and global nonlinearities on aeronautical structures. The nonlinear relocalization strategy allows the introduction of nonlinear solving schemes in the sub-structures of the classical domain decomposition methods.At a first step, the performances and the robustness of the method are analysed on academic examples. Then, the strategy is parallelized and studies of speed-up and extensibility are carried out. Finally, the method is tested on larger and more realistic structures.
98

Reconfigurable self-organised systems : architecture and implementation / Systèmes reconfigurables et auto-organisés : architecture et implantation

Cheng, Kevin 12 October 2011 (has links)
Afin de répondre à une complexité croissante des systèmes de calcul, de nouveaux paradigmes architecturaux basés sur des structures auto-adaptatives et auto-organisées sont à élaborer. Ces derniers doivent permettre la mise à disposition d’une puissance de calcul suffisante tout en bénéficiant d’une grande flexibilité et d’une grande adaptabilité, cela dans le but de répondre aux évolutions des traitements distribués caractérisant le contexte évolutif du fonctionnement des systèmes. Ces travaux de thèse proposent une nouvelle approche de conception des systèmes communicants, auto-organisés et auto-adaptatifs basés sur des noeuds de calcul reconfigurable. Autrement dit, ces travaux proposent un système matériel autonome et intelligent, capable de déployer et de redéployer ses modules de calcul, en temps réel et en fonction de la demande de traitement et de la puissance de calcul. L’aboutissement de ces travaux se traduit par la réalisation d’un Système Auto-organisé Reconfigurable (SAR) basé sur la technologie FPGA. L’architecture auto-adaptative proposée permet d’étudier l’impact des systèmes reconfigurables dans une structure distribuée et auto-organisée. Le système est réalisé pour étudier, à chaque niveau, les paramètres qui influencent les performances globales d’un réseau de calcul évolutif. L’étude de l’état de l’art a permis la mise en perspective et la formalisation des caractéristiques du concept d’auto-organisation matérielle proposé ainsi qu’une évaluation et une analyse de ces performances. Les résultats de ces travaux montrent la faisabilité d’un système complexe de calcul distribué dont l’intelligence repose sur les interactions des éléments reconfigurables le constituant / Increasing needs of computation power, flexibility and interoperability are making systems more and more difficult to integrate and to control. The high number of possible configurations, alternative design decisions or the integration of additional functionalities in a working system cannot be done only at the design stage any more. In this context, where the evolution of networked systems is extremely fast, different concepts are studied with the objective to provide more autonomy and more computing power. This work proposes a new approach for the utilization of reconfigurable hardware in a self-organised context. A concept and a working system are presented as Reconfigurable Self-Organised Systems (RSS). The proposed hardware architecture aims to study the impact of reconfigurable FPGA based systems in a self-organised networked environment and partial reconfiguration is used to implement hardware accelerators at runtime. The proposed system is designed to observe, at each level, the parameters that impact on the performances of the networked self-adaptive nodes. The results presented here aim to assess how reconfigurable computing can be efficiently used to design a complex networked computing system and the state of the art allowed to enlighten and formalise characteristics of the proposed self-organised hardware concept. Its evaluation and the analysis of its performances were possible using a custom board: the Potsdam Intelligent Camera System (PICSy). It is a complete implementation from the electronic board to the control application. To complete the work, measurements and observations allow analysis of this realisation and contribute to the common knowledge
99

Mots visuels pour le calcul de pose / Visual words for pose computation

Bhat, Srikrishna 22 January 2013 (has links)
Nous abordons le problème de la mise en correspondance de points dans des images pour calculer la pose d'une caméra par l'algorithme Perspective-n-Point (PnP). Nous calculons la carte 3D, c'est-à-dire les coordonnées 3D et les caractéristiques visuelles de quelques points dans l'environnement grâce à une procédure d'apprentissage hors ligne utilisant un ensemble d'images d'apprentissage. Étant donné une nouvelle image nous utilisons PnP à partir des coordonnées 2D dans l'image de points 3D détectés à l'aide de la carte 3D. Pendant la phase d'apprentissage nous groupons les descripteurs SIFT extraits des images d'apprentissage pour obtenir des collections de positions 2D dans ces images de quelques-uns des points 3D dans l'environnement. Le calcul de SFM (Structure From Motion) est effectué pour obtenir les coordonnées des points correspondants 3D. Pendant la phase de test, les descripteurs SIFT associés aux points 2D projection d'un point 3D de la carte sont utilisés pour reconnaître le point 3D dans une image donnée. Le cadre de travail est semblable à celui des mots visuels utilisés dans différents domaines de la vision par ordinateur. Pendant l'apprentissage, la formation des mots visuelle est effectuée via l'identification de groupes et pendant les tests des points 3D sont identifiés grâce à la reconnaissance des mots visuels. Nous menons des expériences avec des méthodes de formation différentes (k-means et mean-shift) et proposons un nouveau schéma pour la formation des mots visuels pour la phase d'apprentissage. Nous utilisons différentes règles de mise en correspondance, y compris quelques-unes des méthodes standards de classification supervisée pour effectuer la reconnaissance des mots visuels pendant la phase de test. Nous évaluons ces différentes stratégies dans les deux étapes. Afin d'assurer la robustesse aux variations de pose entre images d'apprentissage et images de test, nous explorons différentes façons d'intégrer les descripteurs SIFT extraits de vues synthétiques générées à partir des images d'apprentissage. Nous proposons également une stratégie d'accélération exacte pour l'algorithme mean-shift / We address the problem of establishing point correspondences in images for computing camera pose through Perspective-n-Point (PnP) algorithm. We compute the 3D map i.e. 3D coordinates and visual characteristics of some of the points in the environment through an offline training stage using a set of training images. Given a new test image we apply PnP using the 2D coordinates of 3D points in the image detected by using the 3D map. During the training stage we cluster the SIFT descriptors extracted from training images to obtain 2D-tracks of some of the 3D points in the environment. Each 2D-track consists of a set of 2D image coordinates of a single 3D point in different training images. SfM (Structure from Motion) is performed on these 2D-tracks to obtain the coordinates of the corresponding 3D points. During the test stage, the SIFT descriptors associated the 2D-track of a 3D point is used to recognize the 3D point in a given image. The overall process is similar to visual word framework used in different fields of computer vision. During training, visual word formation is performed through clustering and during testing 3D points are identified through visual word recognition. We experiment with different clustering schemes (k-means and mean-shift) and propose a novel scheme for visual word formation for training stage. We use different matching rules including some of the popular supervised pattern classification methods to perform visual word recognition during test stage. We evaluate these various matching strategies in both stages. In order to achieve robustness against pose variation between train and test images, we explore different ways of incorporating SIFT descriptors extracted from synthetic views generated from the training images. We also propose an exact acceleration strategy for mean-shift computation
100

Application du Codage Réseau aux Architectures à Garanties de Qualité de Service (QoS) / Network coding : principles and applications

Mahmino, Ali 12 November 2009 (has links)
L'intérêt du codage réseau (network coding) pour améliorer le débit ou optimiser l'utilisation de la capacité du réseau a été clairement démontré dans différents contextes. Certains travaux ont notamment montré que le codage réseau permet de diminuer le délai (maximal et moyen) de transmission de bout-en-bout d'un paquet. Ceci est dû au fait que le traitement simultané de plusieurs paquets dans un noeud de codage permet de réduire le temps passé par les paquets dans les files d'attente par rapport au routage classique. Dans cette thèse, nous considérons l'application du codage réseau dans le contexte des réseaux proposant des garanties de qualité de service (QoS). Notre principale contribution est la proposition de trois stratégies de codage réseau assurant un niveau de QoS garantie exprimé en termes de délai de bout-en-bout. La première stratégie, appelée "stratégie orientée réseau" est une stratégie de codage aléatoire, en termes de dates d'arrivée des paquets, permettant de réduire au maximum le temps passé par les paquets dans les files d'attente des routeurs. Le point faible de cette approche, comme toute approche aléatoire, est qu'elle n'est pas totalement fiable. Les deux autres stratégies proposées implémentent une stratégie fiable en utilisant le concept de code en bloc. La première, appelée "stratégie orientée flux" est basée sur la définition classique du codage réseau alors que la seconde, appelée "stratégie de transfert rapide", permet de réduire les temps d'attente des paquets dans les files d'attente en les transférant sans attendre tous les paquets du même bloc. Les délais maximums engendrés par les différentes stratégies ont été évalués au niveau d'un noeud de codage en utilisant le calcul réseau (network calculus). Les bornes de délais de bout-de-bout ont ensuite été calculées pour plusieurs types de réseaux. Dans la plupart des cas, ces bornes sont meilleures que celles obtenues pour le routage classique. Les stratégies de codage réseau fiables et la stratégie de routage ont été implémentées et évaluées par simulation sur les réseaux étudiés précédemment. Les résultats obtenus montrent que les pires cas de délais de bout-en-bout observés ont les mêmes comportements que les bornes maximales théoriques calculées, validant ainsi les stratégies proposées. / The Interest of network coding to improve the throughput or to optimize the use of the network capacity was clearly shown in various contexts. Certain work in particular showed that network coding allows to decrease the end-to-end transmission delay (maximum and average) of a package. This is due to the fact that the processing simultaneous of several packages in a coding node allows to reduce the maximum time spent by the packets in the buffers compared to a classical routing. In this thesis, we consider the application of network coding in the context of the networks providing quality-of-service (QoS) guarantees. Our contributions include the following. First, we propose three network coding strategies ensuring a level of QoS guaranteed expressed in terms of end-in-end delay. The first strategy, called "Network-Oriented Strategy (NOS)", is a random coding strategy. This coding strategy simply consists in combining the inputs packets present in the buffer of a node. It allows minimizing the time spent by the packets in the router's buffers. The weak point of this approach, as any random approach, is that it is not completely reliable. The two other strategies suggested implement a reliable strategy by using the concept of generation. The first, called "Flow-Oriented Strategy (FOS)" is based on the traditional definition of network coding whereas the second, called "Fast Forwarding Strategy (FFS)", allows reducing the packet's buffering delays by transferring them without awaiting all packets of the same generation. The maximum delays generated by different strategies have been evaluated at a coding node level by using network calculus. The end-to-end delay bounds have been then calculated for several types of networks. In most cases, these bounds are better than those obtained for the classical routing. The reliable network coding strategies and the routing strategy have been implemented and evaluated by simulation on networks studied previously. The results obtained show that the worst cases of end-in-end delays observed have the same behaviors as the calculated maximum theoretical bounds, thus validating the suggested strategies

Page generated in 0.0448 seconds