Spelling suggestions: "subject:"suivi."" "subject:"quivi.""
391 |
Modèle du corps humain pour le suivi de gestes en monoculaireNoriega, Philippe 11 October 2007 (has links) (PDF)
L'estimation de la pose du corps humain ou son suivi grâce à la vision par ordinateur se heurte à la diffi culté d'explorer un espace de grande dimension. Les approches par apprentissage et particulièrement celles qui font appel aux régressions vers des espaces de dimension réduits comme les LLE [RS00] ou les GPLVM [Law03] permettent de résoudre cette diffi culté dans le cas de gestes cycliques [UFF06] sans parvenir à généraliser le suivi pour des poses quelconques. D'autres techniques procèdent directement par la comparaison de l'image test avec une base d'apprentissage. Dans cet esprit, le PSH [SVD03] permet d'identi fier rapidement un ensemble de poses similaires dans une grande base de données. Cependant, même en intégrant des techniques d'extrapolation qui permettent de générer d'autres poses à partir de celles apprises, les approches uniquement basées sur l'apprentissage ne parviennent généralement pas à couvrir de façon assez dense l'espace des poses [TSDD06]. D'autres voies consistent à mettre en oeuvre une méthode déterministe ou stochastique. Les méthodes déterministes [PF03] fournissent souvent une solution sous-optimale en restant piégées sur un optimum local du fait des ambiguïtés issues de la vision monoculaire. Les approches stochastiques tentent d'explorer la probabilité a posteriori mais là encore, la grande dimension de l'espace des poses, notamment dans le cas des méthodes à base de simulation par échantillonnage, exige de multiplier le nombre des tirages a n d'avoir une chance d'explorer le mode dominant. Une solution intéressante consiste à utiliser un modèle de corps à membres indépendants [SBR+04] pour restreindre l'exploration aux sous espaces dé nis par les paramètres de chacun des membres. L'infl uence d'un membre sur les autres s'exprime grâce à la propagation des croyances [KFL01] pour fournir une solution cohérente. Dans ce travail de thèse, cette dernière solution est retenue en l'associant au fi ltre à particules pour générer un espace discret où s'e ectue la propagation des croyances [BCMC06]. Ce procédé est préférable à la modélisation paramétrique des messages par un échantillonneur de Gibbs, un procédé coûteux en ressources dérivé de l'algorithme PAMPAS [Isa03]. Parallèlement à cette solution, le développement d'un suivi robuste du haut du corps, même en 2D [NB07b], exige une fusion de plusieurs indices extraits de l'image. La vraisemblance des hypothèses émises vis-à-vis de l'image est évaluée à partir d'indices tirés des gradients et de la couleur combinés avec une soustraction de fond [NB06] et une détection du mouvement. L'interprétation de la profondeur pour le passage en 3D constitue une di fficulté majeure du suivi monoculaire. La fusion d'indices évoquée précédemment devient insu sante pour contraindre la pose. Cependant, du fait des contraintes articulaires, l'espace réel des poses occupe un sous-espace très réduit dans l'espace théorique. Le codage de ces contraintes dans l'étape de propagation des croyances associé à la fusion d'indices permet alors d'aboutir à de bonnes performances, même dans les cas d'environnements non contraints (lumière, vêtements...) [NB07a]. Une meilleure gestion des occultations est mise en oeuvre en ajoutant un terme de compatibilité des hypothèses basé sur l'apprentissage. Avec le modèle utilisé [SBR+04], ce sont des membres indépendants plutôt que des poses complètes qui sont stockées dans la base d'apprentissage. Ceci permet d'obtenir une couverture satisfaisante de l'espace des poses avec un nombre raisonnable d'exemples appris. La propagation des croyances assure un assemblage cohérent des membres pour arriver au résultat et le processus de sélection des exemples dans la base peut-être accéléré grâce au PSH [SVD03].
|
392 |
Etude numérique d'un jet transverse dans un écoulement gazeux à grande vitesseKeller, François-Xavier 12 June 1996 (has links) (PDF)
On étudie la pulvérisation numérique de jets et de nappes liquides. Dans la première partie une revue bibliographique du problème présente la théorie des instabilités de Kelvin-Helmholtz et différents résultats expérimentaux antérieurs. Dans le seconde partie on présente différentes méthodes numériques : technique de suivi d'interface (Volume of Fluid), de calculs des efforts de tension de surface (CSF) et de résolution des équations de Navier-Stokes (Mac Cormack). La dernière partie décrit une méthode particulaire (SPH) permettant de traiter des interactions d'écoulements liquides et gazeux. Les principaux phénomènes interfaciaux, tels que la tension de surface et la vaporisation sont pris en compte. Des calculs 2D et 3D de déformation de jets liquides dans les écoulements gazeux supersoniques sont analyses et comparés avec des résultats expérimentaux.
|
393 |
Commande robuste par façonnement d'énergie de systèmes non-linéairesRomero Velázquez, José Guadalupe 08 February 2013 (has links) (PDF)
Cette thèse porte sur la conception de commandes robustes pour les systèmes non linéaires, mettant l'accent sur les systèmes mécaniques. Des résultats concluants sont présentés pour résoudre deux situations très abordées dans la théorie du contrôle : 1) La stabilité des systèmes non linéaires perturbés ; 2) Le suivi global de trajectoire dans les systèmes mécaniques en ayant seulement connaissance de la position. Nous avons commencé par donner une méthode de conception des commandes robustes pour assurer une régulation de sortie non passive. En outre, si le système est perturbé (pas appariés), des preuves rigoureuses pour les rejeter sont fournies. Ce résultat est principalement inspiré d'un changement de coordonnées et de l'action intégrale dynamique. Si le scénario à traiter concerne des systèmes mécaniques avec des perturbations variant dans le temps, nous dotons le système de propriétés comme IISS (Integral Input- State Stable) et ISS (Input-State Stable). Ce résultat est obtenu en modifiant la procédure de conception de manière à rejeter les perturbations constantes (pas appariés). Cependant, en raison de la non-linéarité du système, les commandes qui en résultent ont une grande complexité. Pour le même problème, un deuxième et élégant résultat est donné au cas où un changement préalable de variable (impulsions) est réalisé. Finalement, une réponse convaincante au problème de suivi de trajectoire pour les systèmes mécaniques est donnée en tenant compte uniquement des informations de position. Nous résolvons ce problème en deux étapes. Premièrement, quelques modifications sont apportées à la preuve de stabilité d'un observateur de vitesse basée sur la théorie de l'invariance et l'Immersion récemment publié. Notez que ceci est un observateur satisfaisant la convergence exponentielle de vitesse dans les systèmes mécaniques. Deuxièmement et sur la base du changement de coordonnées (impulsions), un contrôleur de suivi avec stabilité exponentielle, tenant compte de la position et de la vitesse, est proposé. De telle sorte qu'avec la combinaison des deux résultats, le suivi de trajectoire exponentielle avec retour de position est donné.
|
394 |
Analyse et modélisation de l'utilisation de signaux GNSS en environnement marinTay, Sarab 06 February 2012 (has links) (PDF)
L'observation passive de la surface marine, utilisant notamment comme source d'opportunité des signaux émis par les systèmes de positionnement par satellites (GNSS), constitue depuis quelques années un axe de recherche et de développement très dynamique. Plusieurs équipes de recherche ont déjà mis en évidence la pertinence de telles approches pour des observations aéroportées. Le travail de cette thèse s'inscrit dans le cadre général de la mesure passive utilisant les signaux de positionnement par satellites (GPS). Toutefois, le contexte précis de notre étude se focalisera sur les observations côtières réalisées à proximité de la surface (quelques mètres). La surface de mer ne peut plus, dans ce cas, se résumer à une surface immobile rugueuse. La diffraction des signaux GPS doit alors prendre en compte la déformation spatio-temporelle de la surface et le déplacement des vagues. L'analyse de ces signaux permet de mettre en évidence la variation temporelle de la surface, en identifiant le déplacement des principaux diffuseurs (crête de vague, objet flottant à la surface,...). Les mouvements auxquels il est fait référence sont très lents (de l'ordre du Hz) par rapport aux fréquences des ondes observantes (ordre du GHz). L'amplitude des déplacements reste limitée, ce qui induit des différences de retard très faibles. Toutefois, dans ce contexte délicat, nous avons mis en oeuvre des techniques de traitement de signal adaptées, qui mettent en évidence ces mouvements à partir des signaux d'opportunité diffractés. L'étude s'appuie, en particulier, fortement sur la théorie du filtrage de Kalman dans le plan Doppler-retard des signaux diffractés.
|
395 |
Détection et suivi d'événements de surveillanceSharif, Md. Haidar 16 July 2010 (has links) (PDF)
Dans les systèmes de vidéosurveillance, les algorithmes de vision assistée par ordinateur ont joué un rôle crucial pour la détection d'événements liés à la sûreté et la sécurité publique. Par ailleurs, l'incapacité de ces systèmes à gérer plusieurs scènes de foule est une lacune bien connue. Dans cette thèse, nous avons développé des algorithmes adaptés à certaines difficultés rencontrées dans des séquences vidéo liées à des environnements de foule d'une ampleur significative comme les aéroports, les centres commerciaux, les rencontres sportives etc. Nous avons adopté différentes approches en effectuant d'abord une analyse globale du mouvement dans les régions d'intérêt de chaque image afin d'obtenir des informations sur les comportements multimodaux de la foule sous forme de structures spatio-temporelles complexes. Ces structures ont ensuite été utilisées pour détecter des événements de surveillance inhabituels au sein-même de la foule. Pour réaliser nos expériences, nous nous sommes principalement appuyés sur trois ensembles de données qui ont suscité notre réflexion. Les résultats reflètent à la fois la qualité et les défauts de ces approches. Nous avons également développé une distance pseudo-euclidienne.Pour démontrer son utilité, une méthodologie qui lui est propre a été utilisée pour la détection de plusieurs événements de surveillance standards issus de la base TRECVID2008. Certains résultats montrent la robustesse de cette méthodologie tandis que d'autres soulignent la difficulté du problème. Les principaux défis portent, entre autres, sur le flux massif de personnes, l'importance de l'occlusion, la réflexion, les ombres, les fluctuations, les variations de la taille de la cible, etc. Cependant, nos idées et nos expériences de ces problèmes d'ordre pratique ont été particulièrement utiles. De plus, cette thèse développe un algorithme permettant de suivre une cible individuelle dans le cadre de plusieurs scènes de foule. Les séquences vidéo de la base de PETS2009 Benchmark ont été prises en compte pour évaluer les performances de cet algorithme. Si on analyse ses avantages et ses inconvénients, celui-ci fait toujours preuve d'une grande exactitude et sensibilité vis-à-vis des effets de variationde la lumière, ce qui atteste de sa grande efficacité même lorsque la luminosité baisse, que la cible entre ou sort d'une zone d'ombre ou en cas de lueur soudaine.
|
396 |
La réforme québécoise de l'enseignement scolaire : une étude de l'impact sur les compétences cognitives des jeunesPilon, Dominic 07 1900 (has links) (PDF)
Au tournant de l'an deux mille, le gouvernement québécois a décidé de réformer le système d'éducation québécois. Guidée par de nombreuses études faites préalablement, la réforme est motivée par le désir d'offrir de meilleurs outils aux jeunes Québécois. La présente analyse a pour but d'examiner l'évolution des compétences cognitives des jeunes Québécois de 15 ans à la suite de la réforme scolaire implantée. Réforme ayant pour but d'accroître le nombre d'étudiants atteignant la réussite. L'analyse repose sur les données du Programme international de suivi des acquis de l'OCDE pour les cohortes des années 2000, 2003, 2006 et 2009. L'accent est mis sur les trois compétences clés incluses dans l'enquête (lecture, mathématiques et science), connaissant l'importance des compétences cognitives comme déterminant de la poursuite des études, du salaire futur, etc. Nous estimons premièrement des équations de capital humain avec le modèle de différence-en-différences et la méthode des moindres carrés ordinaires. Par la suite, l'analyse est étendue à l'impact sur la distribution des compétences à l'aide des régressions par quantile. Des variables de contrôle sont introduites au niveau des caractéristiques des élèves, de l'école et des caractéristiques socio-économiques. La différenciation est premièrement faite entre les étudiants québécois et ceux du reste du Canada et ensuite entre les cohortes pré-réforme et post-réforme. L'analyse des résultats des régressions est surprenante. Concernant les compétences en lecture aucun changement n'est détecté avec la méthode des moindres carrés ordinaires. Au niveau des régressions par quantile une influence négative a été subie au 90e centile. Pour les compétences en mathématiques, elles ont subi un impact positif en utilisant les moindres carrés ordinaires et au bas de la distribution en utilisant les régressions par quantile. Par contre, cet effet a seulement atteint les garçons. Concernant les compétences en sciences, elles n'ont pas été affectées par la réforme. La réforme n'a donc pas atteint son objectif puisque seuls les garçons semblent avoir été atteints positivement par la réforme et puisqu'aucun changement positif et significativement différent de zéro n'est relevé.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : Compétences cognitives, PISA, réforme scolaire, différence-en-différences, valeurs plausibles, régression par quantile, éducation québécoise.
|
397 |
Caractérisation des tumeurs et de leur évolution en TEP/TDM au ¹⁸F-FDG pour le suivi thérapeutiqueMaisonobe, Jacques-Antoine 13 December 2012 (has links) (PDF)
La Tomographie par Emission de Positons (TEP) au Fluoro-déoxyglucose marqué au Fluor 18 (¹⁸F-FDG), analogue du glucose, permet d'obtenir une image de la consommation de glucose dans l'organisme. La plupart des foyers tumoraux présentant une consommation excessive de glucose, son utilisation en oncologie permet d'améliorer la prise en charge des patients en diminuant le temps nécessaire pour évaluer l'efficacité des traitements tels que la chimiothérapie et la radiothérapie. Mon projet de recherche visait à proposer et améliorer des méthodes de quantification en TEP au ¹⁸F-FDG afin de caractériser au mieux l'évolution métabolique des volumes tumoraux.De nombreux facteurs biaisent la quantification en TEP. Parmi eux, l'Effet de Volume Partiel (EVP) reste difficile à corriger, notamment à cause de la faible résolution spatiale des images TEP. Afin de déterminer l'impact de la correction de l'EVP sur l'évaluation des réponses des tumeurs, une étude sur données simulées par Monte Carlo a tout d'abord été effectuée. Cette étude a été complétée par l'analyse de données TEP/TDM (Tomodensitométrie) acquises chez 40 patients atteints de cancers colorectaux métastatiques (CCM), traités par chimiothérapie à l'Institut Jules Bordet (Bruxelles). L'analyse de 101 tumeurs a montré que les critères tels que le SUV, n'incluant pas de correction de l'EVP, et qui reflètent alors le volume tumoral et son activité, prédisaient mieux l'évolution tumorale que les critères corrigés de l'EVP. Compte tenus des résultats prometteurs récents de méthodes de caractérisation de l'hétérogénéité de la fixation du FDG dans les tumeurs, un second volet de notre travail a consisté à étudier l'intérêt de la prise en compte de la texture dans le cadre du suivi thérapeutique. L'application de l'analyse de texture aux cas de CCM étudiés précédemment n'a pas permis de démontrer une valeur ajoutée des indices de texture par rapport aux index quantitatifs couramment employés en clinique. Nous avons montré que cette conclusion s'expliquait en partie par la non-robustesse des indices de texture vis-à-vis des paramètres impliqués dans leur mesure. Nous avons enfin cherché à évaluer une méthode d'Analyse Factorielle de Séquences d'Images Médicales (AFSIM), appliquée au contexte du suivi thérapeutique, pour caractériser l'évolution tumorale tout au long du traitement. Cette étude a porté sur 9 séries de 4 à 6 examens TEP/TDM de patients traités par radiothérapie au Centre Hospitalier Universitaire Henri Becquerel de Rouen. Outre l'information visuelle globale apportée par cette méthode, l'analyse quantitative des résultats obtenus a permis de caractériser l'hétérogénéité de la réponse vue par l'AFSIM. L'échec des index classiques, provenant entre autres de leur incapacité à distinguer les processus inflammatoires de l'activité métabolique tumorale, a permis de monter la valeur ajoutée de l'AFSIM par rapport aux index tels que le SUV maximal ou moyen.
|
398 |
Analyse d'images en vidéosurveillance embarquée dans les véhicules de transport en commun.Harasse, Sebastien 07 December 2006 (has links) (PDF)
Ce travail s'inscrit dans le cadre d'une thèse Cifre autour de la conception d'un système d'enregistrement vidéo embarqué destiné à la surveillance dans les véhicules de transport en commun.<br />Parmi les applications visées, nous nous sommes concentrés sur la détection d'anomalies de fonctionnement des caméras, la compression sélective et le comptage de personnes.<br />Elles sont basées sur une analyse des images issues des caméras de surveillance embarquées dans les véhicules.<br />L'analyse vidéo dans ce contexte très spécifique est un problème complexe à cause des différentes variations en illumination et en mouvement qui perturbent les algorithmes classiques, ainsi que de part la grande variabilité des objets d'intérêt que sont les personnes.<br />Deux familles d'algorithmes sont considérées dans cette thèse.<br /><br /> Dans une première partie, nous nous intéressons à l'analyse de l'état du système d'acquisition, en terme de netteté des images, de bon positionnement de la caméra et de bonne visibilité de la scène filmée.<br />Les méthodes définies, robustes et efficaces, permettent de construire des applications surveillant en continu le bon fonctionnement des caméras, ainsi que des applications aidant à l'installation des caméras.<br /><br /> Dans une deuxième partie, nous abordons la détection et le suivi de personnes dans cet environnement dynamique.<br />Le schéma général du système permet la fusion de différentes sources d'information dans un cadre probabiliste.<br />Nous avons en particulier développé un modèle d'arrière-plan permettant une détection robuste des pixels d'avant-plan.<br />La détection de personnes est basée sur la combinaison de sources d'information telle que le mouvement ou la peau au sein d'un modèle de personne adapté au problème posé.<br />Ces outils ont ensuite été utilisés pour réaliser la compression sélective des vidéos en fonction de l'intérêt porté aux différents objets extraits, ainsi que dans une application de comptage de personnes.
|
399 |
Contrôle de la vitesse de germination chez le maïs (Zea mays) : étude de la voie de biosynthèse des acides aminés issus de l'aspartate et recherche de QTLsAnzala, Fabiola 12 December 2006 (has links) (PDF)
La voie de l'aspartate a été étudiée chez le maïs au travers de l'expression des gènes ask1, ask2, akh1 et akh2 codant pour des aspartates kinases, le dosage des acides aminés et le suivi isotopique de l'incorporation du 15N, issu de l'asp-15N, dans les acides aminés dérivés. Il apparaît que la voie de l'aspartate diffère entre deux lignées (lente et rapide) de maïs : une vitesse de germination lente serait associée à un effet inhibiteur de l'accumulation de lysine ou à un contenu limité en thréonine et méthionine. L'étude de l'effet de la lysine, par une recherche de QTLs (T50) en présence d'acides aminés, met en évidence un QTL spécifique à la germination en présence de lysine qui co-localise avec un QTL spécifique à la germination en condition de stress « froid ». L'ensemble des résultats obtenus indique que la teneur en lysine du grain serait en partie responsable de la vitesse de germination
|
400 |
Contribution à l'analyse et à l'interprétation du mouvement humain: application à la reconnaissance de posturesGirondel, Vincent 19 June 2006 (has links) (PDF)
Le travail de recherche présenté dans ce mémoire de thèse est dédié à l'analyse et à l'interprétation du mouvement humain avec application à la reconnaissance de postures. L'analyse et l'interprétation du mouvement humain en vision par ordinateur ont de nombreux domaines d'applications tels que la vidéosurveillance, les applications de réalité mixte et les interfaces homme-machine avancées. Nous proposons ici un système temps-réel permettant une analyse et une interprétation du mouvement humain.<br /><br />L'analyse du mouvement humain fait intervenir plusieurs processus de traitement d'images tels que la segmentation d'objets en mouvement, le suivi temporel, la détection de peau, les modèles de corps humain et la reconnaissance d'actions ou de postures. Nous proposons une méthode de suivi temporel en deux étapes permettant de suivre au cours du temps une ou plusieurs personnes même si elles s'occultent entre elles. Cette méthode est basée sur un calcul d'intersection de boîtes englobantes rectangulaires et sur un filtrage partiel de Kalman. Puis nous explicitons une méthode de détection de peau par une approche couleur afin de localiser leurs visages et leurs mains. Toutes ces étapes préliminaires donnent accès à de nombreuses informations bas-niveau. Dans une dernière partie, nous utilisons une partie de ces informations pour reconnaître les postures statiques de personnes parmi les quatre postures suivantes: debout, assis, accroupi et couché. De nombreux résultats illustrent les avantages et les limitations des méthodes proposées, ainsi que leur efficacité et robustesse.
|
Page generated in 0.0478 seconds