Spelling suggestions: "subject:"modélisation ett simulation"" "subject:"modélisation eet simulation""
131 |
Classification et Fusion de Données Actimétriques pour la Télévigilance Médicale : Elaboration et<br />Validation Expérimentale chez la Personne Jeune et AgéeBarralon, Pierre 28 October 2005 (has links) (PDF)
La prise en charge à domicile des personnes âgées rend nécessaire de disposer d'un outil d'évaluation de leurs<br />autonomie. Les travaux effectués proposent une méthode globale évaluant certains critères d'autonomie jusqu'alors<br />évaluées manuellement par un médecin.<br /><br />Nous avons, dans un premier temps, développé des méthodes de détection et classification (postures, transferts,<br />marche) appliquées à des signaux accélérométriques issus d'un système embarqué. Des expérimentations ont permis<br />d'évaluer et valider les différents algorithmes sur des sujets jeunes et âgées.<br /><br />Dans un second temps, l'objectif était de combiner ces informations avec celles recueillies par d'autres capteurs<br />pouvant être présents dans l'appartement de la personne. Une méthode de fusion de données multicapteurs a été<br />élaborée et validée. Elle permet d'évaluer cinq des six critères ADL.
|
132 |
Comparer les morphogénèses urbaines en Europe et aux États-Unis par la simulation à base d'agents -- Approches multi-niveaux et environnements de simulation spatialeLouail, Thomas 07 December 2010 (has links) (PDF)
La comparaison, à différents niveaux (systèmes de villes, villes, quartiers), de l'organisation spatiale et hiérarchique des systèmes urbains dans le monde fait apparaître des propriétés universelles (loi rang-taille, structure centre-périphérie des villes, etc.) mais également une grande variété de formes (notamment en termes de répartition des populations, densités, prix, activités). Si la théorie évolutionnaire urbaine et celles d'économie spatiale offrent des schémas explicatifs de cette émergence de formes, les modèles qui en sont issus se sont jusqu'à présent focalisé sur un seul niveau d'organisation spatiale, qu'il soit intra- ou inter-urbain. Dans une optique d'aménagement durable, il est important de disposer de modèles permettant de raisonner sur les inter-dépendances qu'entretiennent ces niveaux d'organisation du peuplement. Cette thèse présente une famille de modèles entités-centrés et d'outils dédiés à l'étude de cette problématique par la simulation à base d'agents. Ils s'inscrivent dans le projet Simpop et sont mis en oeuvre sur la comparaison des morphogenèses urbaines en Europe et aux Etats-Unis, sur la période 1800-2000. Ils incluent notamment le simulateur simpopNano, accompagné d'un environnement modulaire construit autour d'un SIG pour une exploitation systématique, intelligente et collective de modèles spatiaux. Ensemble, ils confortent l'idée que la seule différence des maillages des réseaux viaires des villes suffit à exprimer des répartitions spatiales plus diffuses sur les grilles américaines que sur les plans radioconcentriques européens. Ce modèle intra-urbain est ensuite articulé avec le modèle de systèmes de villes Simpop2 dans un modèle multi-niveaux, inter et intra-urbain. Il est le point d'ancrage d'une comparaison d'approches dédiées à l'intégration de modèles dynamiques associés à différents niveaux d'abstraction.
|
133 |
Conception et réalisation d'une plateforme mécatronique dédiée à la simulation de conduite des véhicules deux-roues motorisés.Nehaoua, Lamri 10 December 2008 (has links) (PDF)
Le sujet de thèse concerne la réalisation et la caractérisation d'un simulateur dynamique de véhicule deux-roues. La thèse est organisée en plusieurs parties essentielles. D'abord, une étude bibliographique est menée pour cerner la problématique de la simulation de conduite d'une manière générale en se focalisant sur les simulateurs de point de vue conception. Dans cette partie, on a pris connaissance des différentes architectures mécaniques utilisées auparavant ainsi que les problèmes liés. Le choix de l'architecture du simulateur est guidé par les besoins nécessaires d'avoir une perception suffisante au cours de la simulation de conduite. Notre objectif est de reproduire les effets inertiels (accélération, effort,..) les plus pertinents perçus dans une conduite réelle. Le second chapitre aborde la dynamique des véhicules et compare celle des deux-roues contre les automobiles. Des adaptations pour des modèles dynamiques de moto ont été présentées pour répondre à nos besoins en termes de rendus privilégiés. Le troisième chapitre présente les aspects conception, réalisation, caractérisation et identification du simulateur de moto mis au point dans le cadre de cette thèse. Il constitue la principale contribution de ces travaux de recherche. Les deux derniers chapitres sont dédiés aux algorithmes de contrôle/commande ainsi qu'essais expérimentaux sur la plateforme. Ces tests ont été réalisés en vue de la caractérisation et la validation de performances de toute la chaîne de simulation.
|
134 |
Conception et sécurisation d'unités arithmétiques hautes performances pour courbes elliptiquesFrancq, Julien 16 December 2009 (has links) (PDF)
La cryptographie basée sur les courbes elliptiques (ECC) est de plus en plus utilisée dans les cryptosystèmes à clé publique, notamment parce qu'à niveau de sécurité équivalent, la taille nécessaire des clés ECC est nettement inférieure à ce que son prédécesseur, le RSA, requiert. L'ECC conduit donc à implanter des circuits plus compacts que pour le RSA, ce qui indique qu'elle est plus adaptée aux circuits fortement contraints (cartes à puce, etc.). L'ECC a d'ailleurs bénéficié de l'amélioration continue de l'arithmétique (des ordinateurs et des courbes) ces dernières années, ce qui lui permet de se positionner comme un remplaçant crédible au RSA dans le monde industriel. Il est vrai qu'un concepteur de circuits cryptographiques doit chercher à améliorer les performances de son cryptosystème, mais il doit également protéger ce dernier contre des attaques physiques pouvant compromettre sa sécurité. En effet, des attaques efficaces dites "par observation" et "par perturbation" ont été mises en évidence. Le concepteur de circuits cryptographiques doit donc implanter des parades à ces attaques, également appelées contre-mesures. Cependant, l'ajout de ces contre-mesures ne doit pas d'une part ajouter de nouvelles vulnérabilités au cryptosystème, et d'autre part diminuer drastiquement ses performances. Ces travaux de thése proposent une nouvelle architecture d'unité arithmétique pour l'ECC. Il se trouve que les performances de cette derniére sont meilleures que la plupart de celles présentes dans la littérature. Ceci est essentiellement dû à l'utilisation d'une représentation redondante des nombres, appelée repréesentation à retenues signées. Le second r'ésultat principal de ces travaux provient de la protection de cette unité contre les attaques par observation à l'aide de l'état de l'art : ce faisant, nous proposons là encore la solution la plus performante de la littérature. Enfin, nous avons exploré la possibilié de protéger notre circuit contre les attaques par perturbation à l'aide du principe de la préservation de la parité. Cette dernière contribution amène des réesultats encourageants
|
135 |
Contribution à la modélisation des durées de séjour du CHU de GrenobleDelhumeau, Cécile 06 December 2002 (has links) (PDF)
Cette thèse propose une méthodologie permettant l'identification des groupes homogènes de malades (GHM) du Centre Hospitalier Universitaire (CHU) de Grenoble dont la durée de séjour (DS) s'écarte de la "référence nationale", mais aussi d'identifier la présence d'éventuels groupes d'"outliers" (patients avec des DS extrêmes) dans ces GHM. L'enjeu est de taille : des séjours longs entraînent une occupation des lits supérieure à ce que permet la valorisation financière correspondant à la pathologie prise en charge. Il est donc important de repérer ces GHM, responsables du coût élevé du point Indice Synthétique d'Activité (ISA), unité d'oeuvre des hôpitaux utilisée par le Programme de Médicalisation des Systèmes d'Information pour connaître leur activité, leur allouer le budget correspondant, et contraindre à une productivité optimale. Les écarts entre la distribution des DS des GHM grenoblois et celle de leurs homologues de la base nationale ont été comparés. Pour chaque GHM, un profil, fondé sur la comparaison des quartiles de DS des distributions nationales et grenobloises, deux à deux, a été construit. Des méthodes statistiques de classification (analyse en composantes principales, classification hiérarchique, analyse discriminante et modèles de mélange) ont été utilisées pour repérer aisément et sûrement les GHM économiquement coûteux. De manière empirique, les profils grenoblois semblent se structurer en 9 catégories. La classification hiérarchique identifie 4 catégories de GHM, dont une particulière comptant 16 GHM, dans laquelle un tiers des patients participe fortement à la dérive en points ISA du CHU, et pour qui la mise en place d'une action économiquement rentable serait aisée. Le modèle de mélange montre que les GHM se structurent en 3 catégories et permet de valider la classification issue de l'approche multidimensionnelle.
|
136 |
Contributions aux Cartes Combinatoires et Cartes Généralisées : Simplification, Modèles, Invariants Topologiques et ApplicationsDamiand, Guillaume 23 September 2010 (has links) (PDF)
Ce mémoire résume nos principales contributions aux cartes combinatoires et cartes généralisées, deux modèles combinatoires représentant des subdivisions d'objets en cellules (sommets, arêtes, faces, volumes, ...). Ces modèles possèdent plusieurs avantages qui justifient leurs utilisations dans plusieurs domaines comme la modélisation géométrique et l'analyse d'images : ils sont définis en dimension quelconque à partir d'un seul type d'élément ; ils décrivent les cellules de la subdivision ainsi que toutes les relations d'adjacence et d'incidence entre ces cellules ; des contraintes de cohérence permettent de tester la validité des objets manipulés ; ils autorisent la mise en oeuvre d'algorithmes locaux, qui sont simples et efficaces en complexité. Nos travaux portent sur l'étude de ces modèles et sur la définition d'algorithmes. Nous avons tout d'abord défini quatre opérations de base : la suppression, la contraction, l'insertion et l'éclatement. Ces opérations sont les briques de base permettant de modifier un objet et peuvent être vues comme une généralisation des opérateurs d'Euler. Elles sont définies de manière générale en dimension quelconque. Il est ensuite possible d'ajouter des contraintes supplémentaires selon les applications et selon les propriétés spécifiques à conserver. Ces opérations sont au coeur de nos travaux. Nous les avons utilisées pour définir la carte topologique 2D et 3D, un modèle décrivant la partition d'une image en régions, puis pour définir des opérations de fusion et de découpe sur les cartes topologiques. Nous avons également défini les pyramides généralisées qui peuvent être vues comme des piles de cartes, chacune étant obtenue par simplification de la carte précédente. Enfin, nous avons proposé des algorithmes de calcul d'invariants topologiques : la caractéristique d'Euler-Poincaré, le schéma polygonal canonique, les nombres de Betti et les groupes d'homologies. Dans ces quatre cas, nous avons à nouveau utilisé les opérations de base afin de proposer des méthodes de mise à jour locales, ou pour simplifier la carte dans l'objectif d'accélérer les calculs du fait de la diminution du nombre de cellules. Nous avons utilisé ces travaux théoriques dans différentes applications. En modélisation géométrique, nous présentons le modeleur Moka qui est un modeleur géométrique à base topologique. Différentes applications se sont basées sur ce modeleur et nous présentons plus en détail une méthode de reconstruction automatique de bâtiments 3D à partir de plans numériques 2D. En traitement d'images, nous avons utilisé les cartes topologiques afin de proposer des algorithmes de segmentation d'images 2D et 3D pouvant intégrer un contrôle topologique.
|
137 |
Diagrammes de Voronoi 2D et 3D, applications en analyse d'imagesBertin, Etienne 25 January 1994 (has links) (PDF)
Cette these est axee sur la cooperation entre l'analyse d'images et la geometrie algorithmique sur la base des diagrammes de Voronoi et de Delaunay. Le propos de l'analyse d'images est la description du contenu d'une image,en vue de son interpretation et d'une prise de decision. La geometrie algorithmique quant a elle consiste a trouver des algorithmes efficaces en vue de resoudre des problemes a caractere geometrique. Nous nous interesserons ici au probleme de representation des images par des partitionnements plus ou moins complexes, adaptes ou non au contenu informatif des images. Parmi ces partitionnements, nous developperons plus particulierement celui en regions de Voronoi. Nous aborderons ensuite le probleme du codage de formes tridimensionnelles par leur squelette qui est lie aux diagramme de Voronoi Generalise 3D. Nous montrerons enfin comment utiliser les partitionnements en region de Voronoi dans un contexte pyramidal controle par un reseau de Hopfield en vue de la segmentation, et dans un contexte markovien en vue de trouver un partitionnement repondant a une certaine optimalite.
|
138 |
EnTiMid : Un modèle de composants pour intégrer des objets communicants dans des applications à base de servicesNain, Grégory 05 December 2011 (has links) (PDF)
Les systèmes logiciels tendent à se doter de facultés d'adaptation, d'évolution et d'ouverture. Ces capacités requièrent une grande flexibilité et dynamicité de l'environnement d'exécution, ainsi que de nouveaux outils d'assistance à la fabrication de ces systèmes. En électronique, des outils ont été déployés pour faire face à l'hétérogénéité et au nombre de composants, ainsi qu'aux besoins d'adaptation de produits existants à de nouvelles technologies. L'ouverture de la documentation et des spécifications a permis une grande richesse de solutions venant tant de bricoleurs que d'industriels. Inspiré par l'électronique, cette thèse contribue à l'amélioration de la flexibilité des systèmes logiciels tout en conservant un haut niveau de fiabilité. Les apports se font à trois niveaux. (1) Un nouveau modèle de composants qui offre une grande flexibilité et permet la connection de composants hétérogènes. (2) Des outils issus de l'ingénierie des modèles, pour créer, modifier, simuler et valider la structure et le comportement des assemblages de composants avant leur déploiement. (3) Un environnement d'exécution bati sur une architecture à base de services, pour supporter les évolutions, les adaptations et l'ouverture requises par le modèle de composant proposé. Cette thèse a été validée sur un cas concret dans un projet d'aide à domicile. Dans ce domaine, les systèmes logiciels doivent être adaptables et flexibles, pour répondre aux évolutions des besoins et pathologies des personnes âgées. Les bénéfices acquis de l'utilisation de cette approche dans ce contexte ont prouvé la pertinence de cette thèse.
|
139 |
Environnement de développement d'applications multipériodiques sur plateforme multicoeur. La boîte à outil SchedMCoreCordovilla, Mikel 02 April 2012 (has links) (PDF)
Les logiciels embarqués critiques de contrôle-commande sont soumis à des contraintes fortes englobant le déterminisme, la correction logique et la correction temporelle. Nous supposons que les spécifications sont exprimées à l'aide du langage formel de description d'architectures logicielles temps réel multipériodiques Prelude. L'objectif de cette thèse est, à partir d'un programme Prelude ou d'un ensemble de tâches temps réel dépendantes, de générer un code multithreadé exécutable sur une architecture multicoeur tout en respectant la sémantique initiale. Pour cela, nous avons développé une boîte à outil, SchedMcore, permettant: 1- d'une part, la vérification formelle de l'ordonnançabilité. La vérification proposée est basée sur le parcours exhaustif du comportement avec pas de temps discret. Il est alors possible d'analyser des politiques en-ligne (FP, gEDF, gLLF et LLREF) mais également de calculer une affectation de priorité fixe valide et une séquence valide hors-ligne. 2- d'autre part, l'exécution multithreadée sur une cible multicoeur. L'exécutif encode les politiques proposées étudiées dans la partie d'analyse d'ordonnançabilité, à savoir les quatre politiques en-ligne ainsi que les séquences valides générées. L'exécutif permet 3 modes d'utilisation, allant de la simulation temporelle à l'exécution temps précis des comportements des tâches. Il est compatible Posix et facilement portable sur divers OS.
|
140 |
Etude de la mesure en ligne de l'activité β+ induite lors des traitements d'hadronthérapie, en vue de leur contrôle balistiqueLestand, Loïc 24 September 2012 (has links) (PDF)
Le cancer est aujourd'hui la première cause de mortalité en France, devant les pathologies cardio-vasculaires, si bien qu'il constitue un enjeu de santé publique majeur. Parmi les alternatives thérapeutiques actuellement pratiquées en milieu clinique, on compte l'ensemble des techniques de radiothérapie externe. L'hadronthérapie est une technique émergente de radiothérapie, caractérisée par des propriétés balistiques et biologiques compatibles avec la définition de protocoles cliniques et thérapeutiques hautement conformationnels. La précision balistique, c'est à dire la capacité à irradier un volume cible avec précision repose sur un ensemble de paramètres pouvant être entachés d'incertitudes et dont la quantification n'est pas toujours possible. Aussi, la mise en place de procédures de contrôles de l'irradiation devient indispensable à l'utilisation de cette technique de manière raisonnée et pertinente. Le contrôle balistique peut être réalisé par une technique d'imagerie biomédicale, la Tomographie par Emission de Positons (TEP), qui permet de mesurer la distribution de la radioactivité β+ induite par le faisceau primaire. Les premiers résultats obtenus, tant sur le plan de la simulation que sur celui de l'instrumentation, ont permis de poser les jalons d'une méthodologie de mesure et d'analyse des données compatibles avec cette problématique de mesure en ligne. Des mesures réalisées auprès du centre protonthérapie d'Orsay, un des deux centres d'hadronthérapie français, et du grand accélérateur national d'ions lourds (GANIL) de Caen, ont permis de fournir une preuve de concept et d'initier un chantier visant à concevoir un détecteur suffisamment grand, qui sera exploité dans le cadre de protocoles cliniques déterminés.
|
Page generated in 0.1344 seconds