Spelling suggestions: "subject:"nuages""
41 |
Market-based autonomous and elastic application execution on clouds / Gestion autonome des ressources et des applications dans un nuage informatique selon une approche fondée sur un marchéCostache, Stefania 03 July 2013 (has links)
Les organisations possédant des infrastructures pour le calcul à haute performance rencontrent des difficultés dans la gestion de leurs ressources. Ces difficultés sont dues au fait que des applications de différents types doivent pouvoir accéder concurremment aux ressources tandis que les utilisateurs peuvent avoir des objectifs de performance variés pour leurs applications. Les nuages informatiques apportent plus de flexibilité et un meilleur contrôle des ressources qui laissent espérer une amélioration de la satisfaction des utilisateurs en terme de qualité de service perçue. Cependant, les solutions de nuage informatique actuelles fournissent un support limité aux utilisateurs pour l'expression ou l'utilisation de politiques de gestion de ressources et elles n'offrent aucun support pour atteindre les objectifs de performance des applications. Dans cette thèse, nous présentons une approche qui aborde ce défi d'une manière unique. Notre approche offre un contrôle des ressources complètement décentralisé en allouant des ressources à travers un marché à pourcentage proportionnel tandis que les applications s'exécutent dans des environnements virtuels autonomes capable d'ajuster la demande de l'application selon les objectifs de performance définis par l'utilisateur. La combinaison de la politique de distribution de la monnaie et de la variation dynamique du prix des ressources assure une utilisation des ressources équitable. Nous avons évalué notre approche en simulation et expérimentalement sur la plate-forme Grid'5000. Nos résultats montrent que notre approche peut permettre la cohabitation des différentes politiques d'utilisation des ressources sur l'infrastructure, tout en améliorant l'utilisation des ressources. / Organizations owning HPC infrastructures are facing difficulties in managing their resources. These difficulties come from the need to provide concurrent resource access to different application types while considering that users might have different performance objectives for their applications. Cloud computing brings more flexibility and better resource control, promising to improve the user’s satisfaction in terms of perceived Quality of Service. Nevertheless, current cloud solutions provide limited support for users to express or use various resource management policies and they don't provide any support for application performance objectives.In this thesis, we present an approach that addresses this challenge in an unique way. Our approach provides a fully decentralized resource control by allocating resources through a proportional-share market, while applications run in autonomous virtual environments capable of scaling the application demand according to user performance objectives.The combination of currency distribution and dynamic resource pricing ensures fair resource utilization.We evaluated our approach in simulation and on the Grid'5000 testbed. Our results show that our approach can enable the co-habitation of different resource usage policies on the infrastructure, improving resource utilisation.
|
42 |
Une approche basée graphes pour la modélisation et le traitement de nuages de points massifs issus d’acquisitions de LiDARs terrestres / A graph-based for modeling and processing gigantic point clouds from terrestrial LiDARs acquisitionsBletterer, Arnaud 10 December 2018 (has links)
Avec l'évolution des dispositifs d'acquisition 3D, les nuages de points sont maintenant devenus une représentation essentielle des scènes numérisées. Les systèmes récents sont capables de capturer plusieurs centaines de millions de points en une seule acquisition. Comme plusieurs acquisitions sont nécessaires pour capturer la géométrie de scènes de grande taille, un site historique par exemple, nous obtenons des nuages de points massifs, i.e., composés de plusieurs milliards de points. Dans cette thèse, nous nous intéressons à la structuration et à la manipulation de nuages de points issus d'acquisitions générées à partir de LiDARs terrestres. A partir de la structure de chaque acquisition, des graphes, représentant chacun la connectivité locale de la surface numérisée, sont construits. Les graphes créés sont ensuite liés entre eux afin d'obtenir une représentation globale de la surface capturée. Nous montrons que cette structure est particulièrement adaptée à la manipulation de la surface sous-jacente aux nuages de points massifs, même sur des ordinateurs ayant une mémoire limitée. Notamment, nous montrons que cette structure permet de traiter deux problèmes spécifiques à ce type de données. Un premier lié au ré-échantillonnage de nuages de points, en générant des distributions de bonne qualité en termes de bruit bleu grâce à un algorithme d'échantillonnage en disques de Poisson. Un autre lié à la construction de diagrammes de Voronoï centroïdaux, permettant l'amélioration de la qualité des distributions générées, ainsi que la reconstruction de maillages triangulaires. / With the evolution of 3D acquisition devices, point clouds have now become an essential representation of digitized scenes. Recent systems are able to capture several hundreds of millions of points in a single acquisition. As multiple acquisitions are necessary to capture the geometry of large-scale scenes, a historical site for example, we obtain massive point clouds, i.e., composed of billions of points. In this thesis, we are interested in the structuration and manipulation of point clouds from acquisitions generated by terrestrial LiDARs. From the structure of each acquisition, graphs, each representing the local connectivity of the digitized surface, are constructed. Created graphs are then linked together to obtain a global representation of the captured surface. We show that this structure is particularly adapted to the manipulation of the underlying surface of massive point clouds, even on computers with limited memory. Especially, we show that this structure allow to deal with two problems specific to that kind of data. A first one linked to the resampling of point clouds, by generating distributions of good quality in terms of blue noise thanks to a Poisson disk sampling algorithm. Another one connected to the construction of centroidal Voronoi tessellations, allowing to enhance the quality of generated distributions and to reconstruct triangular meshes.
|
43 |
Fast delivery of virtual machines and containers : understanding and optimizing the boot operation / Contributions à l'approvisionnement d'environnements virtualisés : la problématique des temps de démarrage des machines virtuelles et des conteneursNguyen, Thuy Linh 24 September 2019 (has links)
Le processus d'approvisionnement d'une machine virtuelle (VM) ou d'un conteneur est une succession de trois étapes complexes : (i) la phase d’ordonnancement qui consiste à affecter la VM / le conteneur sur un nœud de calcul ; (ii) le transfert de l'image disque associée vers ce nœud de calcul ; (iii) et l'exécution du processus de démarrage (généralement connu sous le terme « boot »). En fonction des besoins de l’application virtualisée et de l’état de la plate-forme, chacune de ces trois phases peut avoir une durée plus ou moins importante. Si de nombreux travaux se sont concentrés sur l’optimisation des deux premières étapes, la littérature couvre que partiellement les défis liés à la dernière. Cela est surprenant car des études ont montré que le temps de démarrage peut atteindre l’ordre de la minute dans certaines conditions. Durée que nous avons confirmée grâce à une étude préliminaire visant à quantifier le temps de démarrage, notamment dans des scénarios où le ratio de consolidation est élevé. Pour comprendre les principales raisons de ces durées, nous avons effectué en jusqu'à 15000 expériences au dessus de l’infrastructure Grid5000. Chacune de ces expériences a eu pour but d’étudier le processus de démarrage selon différentes conditions environnementales. Les résultats ont montré que les opérations d'entrée/sorties liées au processus de démarrage étaient les plus coûteuses. Afin d’y remédier, nous défendons dans cette thèse la conception d'un mécanisme dédié permettant de limiter le nombre d’entrées/sorties générées lors du processus de démarrage. Nous démontrons la pertinence de notre proposition en évaluant le prototype YOLO (You Only LoadOnce). Grâce à YOLO, la durée de démarrage peut être accélérée de 2 à 13 fois pour les VM et jusqu’à 2 fois pour les conteneurs. Au delà de l’aspect performance, il convient de noter que la façon dont YOLO a été conçu permet de l’appliquer à d’autres types de technologies devirtualisation / conteneurisation. / The provisioning process of a VirtualMachine (VM) or a container is a succession of three complex stages : (i) scheduling theVM / Container to an appropriate compute node ;(ii) transferring the VM / Container image to that compute node from a repository ; (iii) and finally performing the VM / Container boot process. Depending on the properties of the client’s request and the status of the platform, each of these three phases can impact the total duration of the provisioning operation. While many works focused on optimizing the two first stages, only few works investigated the impact of the boot duration. This comes to us as a surprise as a preliminary study we conducted showed the boot time of a VM / Container can last up to a few minutes in high consolidated scenarios. To understand the major reasons for such overheads, we performed on top of Grid'5000 up to 15k experiments, booting VM / Containerunder different environmental conditions. The results showed that the most influential factor is the I/O operations. To accelerate the boot process, we defend in this thesis, the design of a dedicated mechanism to mitigate the number of generated I/O operations. We demonstrated the relevance of this proposal by discussing a first prototype entitled YOLO (You Only LoadOnce). Thanks to YOLO, the boot duration can be faster 2-13 times for VMs and 2 times for containers. Finally, it is noteworthy to mention that the way YOLO has been designed enables it to be easily applied to other types of virtualization (e.g., Xen) and containerization technologies.
|
44 |
Secure Distributed MapReduce Protocols : How to have privacy-preserving cloud applications? / Protocoles distribués et sécurisés pour le paradigme MapReduce : Comment avoir des applications dans les nuages respectueuses de la vie privée ?Giraud, Matthieu 24 September 2019 (has links)
À l’heure des réseaux sociaux et des objets connectés, de nombreuses et diverses données sont produites à chaque instant. L’analyse de ces données a donné lieu à une nouvelle science nommée "Big Data". Pour traiter du mieux possible ce flux incessant de données, de nouvelles méthodes de calcul ont vu le jour. Les travaux de cette thèse portent sur la cryptographie appliquée au traitement de grands volumes de données, avec comme finalité la protection des données des utilisateurs. En particulier, nous nous intéressons à la sécurisation d’algorithmes utilisant le paradigme de calcul distribué MapReduce pour réaliser un certain nombre de primitives (ou algorithmes) indispensables aux opérations de traitement de données, allant du calcul de métriques de graphes (e.g. PageRank) aux requêtes SQL (i.e. intersection d’ensembles, agrégation, jointure naturelle). Nous traitons dans la première partie de cette thèse de la multiplication de matrices. Nous décrivons d’abord une multiplication matricielle standard et sécurisée pour l’architecture MapReduce qui est basée sur l’utilisation du chiffrement additif de Paillier pour garantir la confidentialité des données. Les algorithmes proposés correspondent à une hypothèse spécifique de sécurité : collusion ou non des nœuds du cluster MapReduce, le modèle général de sécurité étant honnête mais curieux. L’objectif est de protéger la confidentialité de l’une et l’autre matrice, ainsi que le résultat final, et ce pour tous les participants (propriétaires des matrices, nœuds de calcul, utilisateur souhaitant calculer le résultat). D’autre part, nous exploitons également l’algorithme de multiplication de matrices de Strassen-Winograd, dont la complexité asymptotique est O(n^log2(7)) soit environ O(n^2.81) ce qui est une amélioration par rapport à la multiplication matricielle standard. Une nouvelle version de cet algorithme adaptée au paradigme MapReduce est proposée. L’hypothèse de sécurité adoptée ici est limitée à la non-collusion entre le cloud et l’utilisateur final. La version sécurisée utilise comme pour la multiplication standard l’algorithme de chiffrement Paillier. La seconde partie de cette thèse porte sur la protection des données lorsque des opérations d’algèbre relationnelle sont déléguées à un serveur public de cloud qui implémente à nouveau le paradigme MapReduce. En particulier, nous présentons une solution d’intersection sécurisée qui permet à un utilisateur du cloud d’obtenir l’intersection de n > 1 relations appartenant à n propriétaires de données. Dans cette solution, tous les propriétaires de données partagent une clé et un propriétaire de données sélectionné partage une clé avec chacune des clés restantes. Par conséquent, alors que ce propriétaire de données spécifique stocke n clés, les autres propriétaires n’en stockent que deux. Le chiffrement du tuple de relation réelle consiste à combiner l’utilisation d’un chiffrement asymétrique avec une fonction pseudo-aléatoire. Une fois que les données sont stockées dans le cloud, chaque réducteur (Reducer) se voit attribuer une relation particulière. S’il existe n éléments différents, des opérations XOR sont effectuées. La solution proposée reste donc très efficace. Par la suite, nous décrivons les variantes des opérations de regroupement et d’agrégation préservant la confidentialité en termes de performance et de sécurité. Les solutions proposées associent l’utilisation de fonctions pseudo-aléatoires à celle du chiffrement homomorphe pour les opérations COUNT, SUM et AVG et à un chiffrement préservant l’ordre pour les opérations MIN et MAX. Enfin, nous proposons les versions sécurisées de deux protocoles de jointure (cascade et hypercube) adaptées au paradigme MapReduce. Les solutions consistent à utiliser des fonctions pseudo-aléatoires pour effectuer des contrôles d’égalité et ainsi permettre les opérations de jointure lorsque des composants communs sont détectés.(...) / In the age of social networks and connected objects, many and diverse data are produced at every moment. The analysis of these data has led to a new science called "Big Data". To best handle this constant flow of data, new calculation methods have emerged.This thesis focuses on cryptography applied to processing of large volumes of data, with the aim of protection of user data. In particular, we focus on securing algorithms using the distributed computing MapReduce paradigm to perform a number of primitives (or algorithms) essential for data processing, ranging from the calculation of graph metrics (e.g. PageRank) to SQL queries (i.e. set intersection, aggregation, natural join).In the first part of this thesis, we discuss the multiplication of matrices. We first describe a standard and secure matrix multiplication for the MapReduce architecture that is based on the Paillier’s additive encryption scheme to guarantee the confidentiality of the data. The proposed algorithms correspond to a specific security hypothesis: collusion or not of MapReduce cluster nodes, the general security model being honest-but-curious. The aim is to protect the confidentiality of both matrices, as well as the final result, and this for all participants (matrix owners, calculation nodes, user wishing to compute the result). On the other hand, we also use the matrix multiplication algorithm of Strassen-Winograd, whose asymptotic complexity is O(n^log2(7)) or about O(n^2.81) which is an improvement compared to the standard matrix multiplication. A new version of this algorithm adapted to the MapReduce paradigm is proposed. The safety assumption adopted here is limited to the non-collusion between the cloud and the end user. The version uses the Paillier’s encryption scheme.The second part of this thesis focuses on data protection when relational algebra operations are delegated to a public cloud server using the MapReduce paradigm. In particular, we present a secureintersection solution that allows a cloud user to obtain the intersection of n > 1 relations belonging to n data owners. In this solution, all data owners share a key and a selected data owner sharesa key with each of the remaining keys. Therefore, while this specific data owner stores n keys, the other owners only store two keys. The encryption of the real relation tuple consists in combining the use of asymmetric encryption with a pseudo-random function. Once the data is stored in the cloud, each reducer is assigned a specific relation. If there are n different elements, XOR operations are performed. The proposed solution is very effective. Next, we describe the variants of grouping and aggregation operations that preserve confidentiality in terms of performance and security. The proposed solutions combine the use of pseudo-random functions with the use of homomorphic encryption for COUNT, SUM and AVG operations and order preserving encryption for MIN and MAX operations. Finally, we offer secure versions of two protocols (cascade and hypercube) adapted to the MapReduce paradigm. The solutions consist in using pseudo-random functions to perform equality checks and thus allow joining operations when common components are detected. All the solutions described above are evaluated and their security proven.
|
45 |
Design and Evaluation of Cloud Network Optimization Algorithms / Optimisation des réseaux virtuels : conception et évaluationBelabed, Dallal 24 April 2015 (has links)
Le but de cette thèse est de tenté de donner une meilleure compréhension des nouveaux paradigmes de l'informatique en Nuage. En ce qui concerne l'Ingénierie du Trafic, l'économie d'énergie, de l'équité dans le partage du débit.Dans la première partie de note thèse, nous étudions l'impact de ces nouvelles techniques dans les réseaux de Data Center, nous avons formulé notre problème en un modèle d'optimisation, et nous le résolvons en utilisons un algorithme glouton. Nous avons étudié l'impact des ponts virtuels et du multi chemin sur différentes architectures de Data Centers. Nous avons en particulier étudié l’impact de la virtualisation des switches et l’utilisation du multi-chemin sur les différents objectifs d'optimisation tels que l'Ingénierie du Trafic, l'économie d'énergie.Dans notre seconde partie, nous avons essayé d’avoir une meilleure compréhension de l'impact des nouvelles architectures sur le contrôle de congestion, et vice versa. En effet, l'une des préoccupations majeures du contrôle de congestion est l'équité en terme de débit, l'impact apporté par le multi-chemin, les nouvelles architectures Data Center et les nouveaux protocoles, sur le débit des points terminaux et des points d'agrégations reste vague.Enfin, dans la troisième partie nous avons fait un travail préliminaire sur le nouveau paradigme introduit par la possibilité de virtualisé les Fonctions Réseaux. Dans cette partie, nous avons formulé le problème en un modèle linéaire, dans le but est de trouver le meilleur itinéraire à travers le réseau où les demandes des clients doivent passer par un certain nombre de NFV. / This dissertation tries to give a deep understanding of the impact of the new Cloud paradigms regarding to the Traffic Engineering goal, to the Energy Efficiency goal, to the fairness in the endpoints offered throughput, and of the new opportunities given by virtualized network functions.In the first part of our dissertation we investigate the impact of these novel features in Data Center Network optimization, providing a formal comprehensive mathematical formulation on virtual machine placement and a metaheuristic for its resolution. We show in particular how virtual bridging and multipath forwarding impact common DCN optimization goals, Traffic Engineering and Energy Efficiency, assess their utility in the various cases in four different DCN topologies.In the second part of the dissertation our interest move into better understand the impact of novel attened and modular DCN architectures on congestion control protocols, and vice-versa. In fact, one of the major concerns in congestion control being the fairness in the offered throughput, the impact of the additional path diversity, brought by the novel DCN architectures and protocols, on the throughput of individual endpoints and aggregation points is unclear.Finally, in the third part we did a preliminary work on the new Network Function Virtualization paradigm. In this part we provide a linear programming formulation of the problem based on virtual network function chain routing problem in a carrier network. The goal of our formulation is to find the best route in a carrier network where customer demands have to pass through a number of NFV node, taking into consideration the unique constraints set by NFV.
|
46 |
Apprentissage de nouvelles représentations pour la sémantisation de nuages de points 3D / Learning new representations for 3D point cloud semantic segmentationThomas, Hugues 19 November 2019 (has links)
Aujourd’hui, de nouvelles technologies permettent l’acquisition de scènes 3D volumineuses et précises sous la forme de nuages de points. Les nouvelles applications ouvertes par ces technologies, comme les véhicules autonomes ou la maintenance d'infrastructure, reposent sur un traitement efficace des nuages de points à grande échelle. Les méthodes d'apprentissage profond par convolution ne peuvent pas être utilisées directement avec des nuages de points. Dans le cas des images, les filtres convolutifs ont permis l’apprentissage de nouvelles représentations, jusqu’alors construites « à la main » dans les méthodes de vision par ordinateur plus anciennes. En suivant le même raisonnement, nous présentons dans cette thèse une étude des représentations construites « à la main » utilisées pour le traitement des nuages de points. Nous proposons ainsi plusieurs contributions, qui serviront de base à la conception d’une nouvelle représentation convolutive pour le traitement des nuages de points. Parmi elles, une nouvelle définition de voisinages sphériques multi-échelles, une comparaison avec les k plus proches voisins multi-échelles, une nouvelle stratégie d'apprentissage actif, la segmentation sémantique des nuages de points à grande échelle, et une étude de l'influence de la densité dans les représentations multi-échelles. En se basant sur ces contributions, nous introduisons la « Kernel Point Convolution » (KPConv), qui utilise des voisinages sphériques et un noyau défini par des points. Ces points jouent le même rôle que les pixels du noyau des convolutions en image. Nos réseaux convolutionnels surpassent les approches de segmentation sémantique de l’état de l’art dans presque toutes les situations. En plus de ces résultats probants, nous avons conçu KPConv avec une grande flexibilité et une version déformable. Pour conclure notre réflexion, nous proposons plusieurs éclairages sur les représentations que notre méthode est capable d'apprendre. / In the recent years, new technologies have allowed the acquisition of large and precise 3D scenes as point clouds. They have opened up new applications like self-driving vehicles or infrastructure monitoring that rely on efficient large scale point cloud processing. Convolutional deep learning methods cannot be directly used with point clouds. In the case of images, convolutional filters brought the ability to learn new representations, which were previously hand-crafted in older computer vision methods. Following the same line of thought, we present in this thesis a study of hand-crafted representations previously used for point cloud processing. We propose several contributions, to serve as basis for the design of a new convolutional representation for point cloud processing. They include a new definition of multiscale radius neighborhood, a comparison with multiscale k-nearest neighbors, a new active learning strategy, the semantic segmentation of large scale point clouds, and a study of the influence of density in multiscale representations. Following these contributions, we introduce the Kernel Point Convolution (KPConv), which uses radius neighborhoods and a set of kernel points to play the role of the kernel pixels in image convolution. Our convolutional networks outperform state-of-the-art semantic segmentation approaches in almost any situation. In addition to these strong results, we designed KPConv with a great flexibility and a deformable version. To conclude our argumentation, we propose several insights on the representations that our method is able to learn.
|
47 |
Rôle de la phase coronale dans la dynamique du milieu interstellaireLazareff, Bernard 25 May 1981 (has links) (PDF)
La première partie est une étude de l'évolution de la population des nuages HI en présence d'un milieu internuage de type coronal, entretenu par les explosions de supernova. La seconde partie concerne l'évolution d'un reste de supernova dans un milieu interstellaire hétérogene. La troisième partie propose un modèle dynamique de nébuleuse planétaire dont la morphologie et la dynamique doivent leur origine à une cavité centrale remplie de gaz coronal.
|
48 |
Le rôle de la qualité alimentaire dans la prévention du déclin de l’autonomie fonctionnelle chez les personnes âgées atteintes du diabète type II faisant partie de la cohorte NuAgeEl Rahi, Berna 06 1900 (has links)
La population mondiale est en train de vieillir. Le vieillissement augmente le risque des pertes de la force musculaire (FM), du diabète type II (T2D) et du déclin de la capacité fonctionnelle (CF). Indépendamment de l’âge, les personnes âgées diabétiques ont un risque accru des pertes de la FM et du déclin de la CF comparées aux non-diabétiques. La nutrition est un facteur déterminant d’un vieillissement optimal et joue un rôle primordial dans la prise en charge du diabète, minimise les pertes de FM et peut moduler le déclin de la CF. De plus, l’activité physique (AP) offre des bénéfices semblables à ceux de la nutrition. Ainsi, l’objectif principal de cette thèse est de déterminer le rôle de la qualité alimentaire (QA) dans le maintien de la CF chez les personnes âgées diabétiques vivant dans la communauté, par le biais des analyses secondaires réalisées sur la base de données de la cohorte NuAge. En vue de la réalisation de cet objectif, une caractérisation de plusieurs variables en lien avec la CF était nécessaire. Ainsi, une description globale de l’alimentation des personnes âgées diabétiques fut effectuée. Ensuite, chacun des articles présentés a testé un objectif spécifique chez ces personnes âgées diabétiques, afin de : 1) déterminer si la QA seule, ou combinée à l’AP est associée au maintien des forces musculaires (FM) ; 2) déterminer si la QA seule, ou combinée à l’AP est associée à la prévention du déclin de la CF ; et 3) examiner l’association entre la suffisance en apports énergétique et protéique et le maintien des FM et la CF. De plus, l’association entre la QA, l’AP et la performance physique (PP) a été examinée.
Cette thèse de doctorat est la première à examiner le rôle de la QA dans la CF chez la population âgée diabétique. En particulier, les résultats ont montré que la population diabétique de NuAge se caractérise par une bonne alimentation globale et de bonnes habitudes alimentaires, avec des apports en macronutriments conformes aux recommandations nutritionnelles. Néanmoins, ces participants devraient augmenter leurs apports en micronutriments qui étaient inférieurs aux recommandations chez la majorité. En outre, aucune association significative n’a été observée entre la QA seule et le maintien des FM, ni le déclin de la PP et la CF. Cependant, la QA combinée à l’AP a été associée aux FM des membres supérieurs. Spécifiquement, les hommes diabétiques ayant une bonne QA combinée à une stabilité de l’AP pendant les trois ans de suivi ont subi des pertes minimes de la FM comparés aux autres. Toutefois, aucune association n’a été observée pour les FM des membres inférieurs. De plus, la QA combinée à l’AP n’était associée ni à la PP ni à la CF chez ces participants. Finalement, les analyses ont démontré que la suffisance en apports énergétiques et protéiques est associée au maintien de la CF. En effet, un apport en énergie égal ou supérieur à 30 kcal/kg poids corporel a minimisé le déclin de la CF comparativement à un apport inférieur à 30 kcal/kg chez les hommes, alors que les femmes ayant un apport protéique égal ou supérieur à 1g/kg poids corporel ont subi un déclin minime de la CF comparées à celles ayant des apports en protéines inférieurs à 1g/kg. Enfin, il a été démontré qu’un apport suffisant en protéines a minimisé les pertes de FM des membres inférieurs chez les femmes diabétiques de la cohorte NuAge.
Collectivement, les résultats de cette thèse fournissent des données probantes indiquant qu’une bonne QA, des apports suffisants en énergie et en protéines et une bonne pratique de l’AP sont nécessaires afin de minimiser les pertes de la FM reliées au vieillissement et accélérées par la présence du diabète et par la suite maintenir la CF des personnes âgées diabétiques. Cependant, d’autres études seront nécessaires pour confirmer ces résultats. / The population is aging, and aging increases the risk of muscle strength (MS) loss, type II diabetes (T2D), and decline in functional capacity (FC). Independent of aging, diabetic older adults (OA) are at increased risk of MS loss and FC decline compared to their non-diabetic counterparts. Nutrition is a determinant of optimal aging, and is important in managing diabetes, and preventing, or at least slowing, the rate of development of diabetes complications; it also minimizes MS losses and finally, modulates decline in FC. In addition, physical activity (PA) offers benefits similar to those conferred by nutrition. Therefore, the main objective of this thesis is to determine the role of diet quality (DQ) in FC maintenance in community-dwelling diabetic OA in secondary analyses of the NuAge cohort database. In order to achieve this objective, characterization of several variables associated with FC was necessary. Thus, a descriptive analysis of the diet of these diabetic older adults was undertaken as our first objective. Then, the three articles are presented, each testing a specific objective in these diabetic OA, to: 1) determine if DQ alone, or combined with PA, is associated with MS maintenance; 2) determine if DQ alone, or combined with PA is associated with prevention of FC decline; and 3) examine the association between adequate protein and energy intakes and MS and FC maintenance. In addition, the association between DQ, PA and physical performance (PP) was studied.
This doctoral thesis is the first to study the role of DQ on FC in diabetic OA. The results have demonstrated that diabetic OA in the NuAge cohort have a good diet overall and good dietary habits, and macronutrient intakes that meet nutrition recommendations. Nevertheless, these participants should increase their micronutrient intakes since the majority did not meet recommendations. Moreover, DQ alone was not associated with MS, PP or FC declines over the three year follow-up. However, DQ combined with PA showed associations with upper body MS. Specifically, good DQ combined with maintenance of PA over follow-up was associated with minimal MS losses in diabetic older men compared to others. However, no significant results were found for lower body MS in either males or females. Furthermore, DQ combined with PA was not associated with either PP or FC in these participants. Finally, our results have shown that adequate energy and protein intakes are associated with FC maintenance. In fact, diabetic older men with energy intakes of 30 kcal or greater/kg body weight experienced lesser declines in FC compared to those having inadequate energy intakes, while diabetic older women with protein intakes of 1g or more/kg body weight had minimal declines in FC compared to those with inadequate protein intakes. Finally, we have shown that adequate protein intakes minimized lower body MS losses in diabetic women in the NuAge cohort.
Taken together, the results of this thesis provide evidence that good DQ, adequate energy and protein intakes and the practice of PA are all factors that can minimize MS losses related to aging and accelerated by T2D, and hence maintain FC in diabetic OA. Nevertheless, further research is needed to confirm these results.
|
49 |
Analysis of 3D objects at multiple scales : application to shape matchingMellado, Nicolas 06 December 2012 (has links)
Depuis quelques années, l’évolution des techniques d’acquisition a entraîné une généralisation de l’utilisation d’objets 3D très dense, représentés par des nuages de points de plusieurs millions de sommets. Au vu de la complexité de ces données, il est souvent nécessaire de les analyser pour en extraire les structures les plus pertinentes, potentiellement définies à plusieurs échelles. Parmi les nombreuses méthodes traditionnellement utilisées pour analyser des signaux numériques, l’analyse dite scale-space est aujourd’hui un standard pour l’étude des courbes et des images. Cependant, son adaptation aux données 3D pose des problèmes d’instabilité et nécessite une information de connectivité, qui n’est pas directement définie dans les cas des nuages de points. Dans cette thèse, nous présentons une suite d’outils mathématiques pour l’analyse des objets 3D, sous le nom de Growing Least Squares (GLS). Nous proposons de représenter la géométrie décrite par un nuage de points via une primitive du second ordre ajustée par une minimisation aux moindres carrés, et cela à pour plusieurs échelles. Cette description est ensuite derivée analytiquement pour extraire de manière continue les structures les plus pertinentes à la fois en espace et en échelle. Nous montrons par plusieurs exemples et comparaisons que cette représentation et les outils associés définissent une solution efficace pour l’analyse des nuages de points à plusieurs échelles. Un défi intéressant est l’analyse d’objets 3D acquis dans le cadre de l’étude du patrimoine culturel. Dans cette thèse, nous nous étudions les données générées par l’acquisition des fragments des statues entourant par le passé le Phare d’Alexandrie, Septième Merveille du Monde. Plus précisément, nous nous intéressons au réassemblage d’objets fracturés en peu de fragments (une dizaine), mais avec de nombreuses parties manquantes ou fortement dégradées par l’action du temps. Nous proposons un formalisme pour la conception de systèmes d’assemblage virtuel semi-automatiques, permettant de combiner à la fois les connaissances des archéologues et la précision des algorithmes d’assemblage. Nous présentons deux systèmes basés sur cette conception, et nous montrons leur efficacité dans des cas concrets. / Over the last decades, the evolution of acquisition techniques yields the generalization of detailed 3D objects, represented as huge point sets composed of millions of vertices. The complexity of the involved data often requires to analyze them for the extraction and characterization of pertinent structures, which are potentially defined at multiple scales. Amongthe wide variety of methods proposed to analyze digital signals, the scale-space analysis istoday a standard for the study of 2D curves and images. However, its adaptation to 3D dataleads to instabilities and requires connectivity information, which is not directly availablewhen dealing with point sets.In this thesis, we present a new multi-scale analysis framework that we call the GrowingLeast Squares (GLS). It consists of a robust local geometric descriptor that can be evaluatedon point sets at multiple scales using an efficient second-order fitting procedure. We proposeto analytically differentiate this descriptor to extract continuously the pertinent structuresin scale-space. We show that this representation and the associated toolbox define an effi-cient way to analyze 3D objects represented as point sets at multiple scales. To this end, we demonstrate its relevance in various application scenarios.A challenging application is the analysis of acquired 3D objects coming from the CulturalHeritage field. In this thesis, we study a real-world dataset composed of the fragments ofthe statues that were surrounding the legendary Alexandria Lighthouse. In particular, wefocus on the problem of fractured object reassembly, consisting of few fragments (up to aboutten), but with missing parts due to erosion or deterioration. We propose a semi-automaticformalism to combine both the archaeologist’s knowledge and the accuracy of geometricmatching algorithms during the reassembly process. We use it to design two systems, andwe show their efficiency in concrete cases.
|
50 |
Vers une meilleure utilisation des observations du sondeur IASI pour la restitution des profils atmosphériques en conditions nuageuses / Towards a better use of the IASI sounder observations to retrieve the atmospheric profiles in cloudy conditionsFaijan, François 21 November 2012 (has links)
Le sondeur hyperspectral infrarouge IASI, dont le premier modèle vole depuis 2006 sur le satellite défilant météorologique Metop-A, a déjà conduit a des retombées scientifiques très spectaculaires, en prévision météorologie et pour l’étude de la composition atmosphérique et du climat. Les mesures du sondeurs sont toutefois largement sous exploitées en grande partie du a la présence des nuages dans l’atmosphère. Ces derniers interagissent avec le rayonnement incident de façon hautement non-linéaire rendant le traitement de la mesure du sondeur bien plus complexe, voire parfois rédhibitoire pour accéder depuis l’espace aux propriétés des couches atmosphériques situées au-dessus du nuage, mais également en dessous dans le cas de semi-transparence. Cependant, au vue de la quantité d’informations potentielles qu’offre les sondeurs, la communauté scientifique s’intéresse de près a l’exploitation des radiances nuageuse, c’est dans ce cadre que s’inscrivent les travaux de recherche de cette thèse. Nous proposons d’étudier deux schémas nuageux radicalement différents : la clarification nuageuse et un schéma permettant de simuler la radiance nuageuse en utilisant les propriétés optique et microphysique des nuages. La première de ces méthodes, initiée par Smith et al. (1968), permet sous certaines conditions, de faire abstraction du nuage dans le pixel IASI. La méthode est basée sur l’algorithme du logiciel Scenes Heterogenes du CNES. Apres une première étape de validation, les performances de la méthode sont évaluées a travers la quantité d’information indépendante qu’offre la clarification par rapport a une chaine de traitement des radiances nuageuses mise en place au CMS. Les résultats sont favorables à la méthode testée permettant de traiter les couches atmosphériques situées sous le nuage, possédant donc une quantité plus importante. Cependant la clarification repose a la fois sur une hypothèse forte d’homogénéité atmosphérique et ne s’applique qu’à 15% des situations nuageuses. La seconde méthode est une simulation de la radiance nuageuse par des modèles de transfert radiatif rapides utilisant les propriétés optique et microphysique du nuage. Cette méthode présente l’avantage majeur d’utiliser les mêmes profils nuageux que ceux produits par les modèles de prévision numérique, laissant entrevoir l’assimilation de ces profils à partir de la mesure IASI. Cependant, l’utilisation de ces modèles de transfert radiatif rapide dans le cadre d’une assimilation de données n’en est encore qu’à ces prémices, très peu d’études ont été menées sur ce sujet. Nous proposons une étude en trois étapes permettant une utilisation en opérationnel de ces modèles de transfert radiatif. La première étape est une compréhension des modèles et de leur validité en réalisant quelques études de cas s’appuyant sur la campagne de mesures de Lindenberg. Ensuite, dans le cadre de la campagne ConcordIasi, une statistique est réalisée mettant en place des filtrage pour sélectionner uniquement les profils nuageux cohérent avec l’observation IASI. La dernière étape est une application en global, les statistiques révèlent une nette amélioration des écarts a l’ébauche grâce aux filtres, passant de 8K a 2K. Nous proposons tout au long de l’étude une discussion sur les modèles utilises (RTTOV et HISCRTM), leurs points forts et leurs défaillances. Enfin l’ultime étape, permet d’évaluer les performances des profils nuageux issus des modèles de prévision numérique. / The IASI hyperspectral infrared sounding interferometer, the first model of which has been flown on board the meteorological polar orbiting satellite MetOp-A since 2006, has already led to spectacular scientific breakthroughs in both weather forecasting and research into atmospheric composition and the climate. Measurements from the sounders are however largely underutilised, mainly because of the presence of clouds in the atmosphere. The highly non-linear way in which the clouds interact with incident radiation makes analysis of the readings much more complex, and can sometimes even prohibit access from space to the properties of not only the atmospheric layers located above the cloud, but also below them in the case of semi-transparency. However, in view of the potential amount of information offered by the sounders, the scientific community is very interested in exploiting cloud radiance. The research for this thesis stems from this interest. We plan to study two radically different cloud schemes: cloud clarification and a scheme which allows for simulation of cloud radiance by using the optical and microphysical properties of clouds. The first of these methods, initiated by Smith et al. (1968), allows us under certain conditions to disregard the cloud in the IASI pixel. This method is based on the CNES Heterogeneous Scenes software algorithm. After a first validation step, method performance is evaluated by the amount of independent information offered by the clarification, compared to a cloud radiance process chain established at CMS. The results are favorable to the tested method allowing us to deal with atmospheric layers under the cloud, which have therefore larger quantities. However clarification is based on a strong assumption of atmospheric homogeneity and only applies to 15% of cloud situations. The second method is a simulation of cloud radiance by fast radiative transfer models using the optical and microphysical properties of the cloud. The major advantage of this method is that it uses the same cloud profiles as those produced by numerical weather prediction models, allowing assimilation of these profiles from the IASI measurement. However, the use of these fast radiative transfer models in the context of data assimilation is still in the early stages, very few studies have been conducted on this topic. We are proposing a three-phase study which will allow for an operational use of these radiative transfer models. The first step is validation. This is done by conducting several case studies based on Lindenberg’s measurement campaign. Then, within the framework of the ConcordIasi campaign, a statistical analysis will be carried out by introducing filtering, to select cloud profiles which are consistent with the IASI observations. The last step is an overall application, the statistics showing a clear improvement in deviation from the draft thanks to the filters, going from 8K to 2K. Throughout the study we will discuss the models used (RTTOV and HISCRTM), their strengths and weaknesses. Finally the last step allows us to evaluate the performance of the cloud profiles obtained by the digital forecasting models
|
Page generated in 0.0422 seconds