241 |
Scénarios temporels pour l'interprétation automatique de séquences vidéosVu, Van-Thinh 14 October 2004 (has links) (PDF)
Cette thèse traite de la reconnaissance de scénarios temporels pour l'interprétation automatique de sé-quences vidéos : l'objectif est de reconnaître à cadence vidéo les comportements d'individus évoluant dans des scènes décrites par des séquences vidéos (acquises par des caméras). Le processus de reconnaissance prend en en-trée (1) les modèles de comportements humains (i.e. scénarios temporels) pré-définis par des experts, (2) les infor-mations sémantiques et géometriques-3D de l'environnement observé et (3) les individus suivis par un module de vision.<br />Pour résoudre ce problème, premièrement, nous avons proposé un modèle générique de scénarios temporels et un langage de description pour la représentation de connaissances décrivant des comportements humains. La repré-sentation de ces connaissances doit être claire, riche, intuitive et flexible pour être compris par les experts du do-maine d'application. Le modèle proposé d'un scénario temporel M se compose de cinq parties : (1) un ensemble de variables correspondant aux acteurs impliqués dans M, (2) un ensemble de variables temporelles correspondant aux sous-scénarios qui composent M, (3) un ensemble de variables interdites correspondant aux scénarios qui ne doivent pas être reconnus pendant la reconnaissance de M, (4) un ensemble de contraintes (symboliques, logiques, spatiales et contraintes temporelles comprenant les opérateurs de l'algèbre d'intervalles d'Allen) portant sur ces variables et (5) un ensemble de décisions correspondant aux tâches pré-définies par les experts pour être exécutées quand M est reconnu.<br />Deuxièmement, nous avons proposé une technique originale de résolution de contraintes temporelles pour la re-connaissance à cadence vidéo de modèles de scénarios temporels pré-définis par des experts. En général, l'algorithme proposé est efficace car il propage les contraintes temporelles et combine seulement les objets physi-ques définis dans le scénario donné M. Par efficace, nous voulons dire que le processus de reconnaissance est li-néaire en fonction du nombre de sous-scénarios et, dans quasiment tous les cas, en fonction du nombre d'objets physiques définis dans M.<br />Pour valider l'algorithme proposé en termes d'exactitude, de robustesse et du temps de traitement en fonction de la complexité des scénarios et de la scène (e.g. nombre de sous-scénarios, nombre de personnes dans la scène), nous avons testé l'algorithme en appuyant sur un grand nombre de vidéos provenant de différentes applications sur des données simulées et également réelles en modes hors-ligne/en-ligne.<br />Les expérimentations réalisées dans différentes applications montrent la capacité du langage de description de scénarios à représenter facilement les scénarios temporels correspondant aux comportements humains d'intérêt. De plus, ces expérimentations montrent également la capacité de l'algorithme proposé à reconnaître à cadence vidéo des modèles de scénarios sophistiqués (jusqu'à 10 acteurs et 10 sous-scénarios par scénario) dans des sé-quences vidéos complexes (jusqu'à 240 personnes/frame dans la scène).
|
242 |
Mise en œuvre et évaluation d'outils de fusion d'image en radiothérapieBondiau, Pierre-Yves 22 November 2004 (has links) (PDF)
Le cancer est un problème majeur de santé publique. Les traitements peuvent être à visée systémique ou loco-régionale, dans ce dernier cas l'imagerie médicale joue un rôle important en permettant de préciser la localisation de la tumeur. L'objectif de la radiothérapie est de délivrer une dose curatrice de radiation au volume cible tout en épargnant les organes à risques (OAR) avoisinants. La détermination de la localisation précise de ce volume cible ainsi que des OAR permet de définir la position et la puissance des faisceaux d'irradiation. Après le rappel des principes de la radiothérapie et du traitement des cancers, nous précisons les enjeux cliniques des tumeurs oculaires, cérébrales et prostatiques.<br />Nous effectuerons une mise au point sur le recalage d'images, les différentes techniques sont passées en revue dans le but d'être didactique vis-à-vis de la communauté médicale. Les résultats du recalage sont présentés dans le cadre de la planification de la radiothérapie cérébrale et prostatique afin de préciser les types de recalage applicables en oncologie et plus particulièrement à la radiothérapie.<br />Ensuite, nous présentons les perspectives de ce type d'application selon différentes régions anatomiques. Les applications de la segmentation automatiques et l'évaluation des résultats dans le cadre des tumeur de l'encéphale sont décrits après avoir passé en revue les différentes méthodes de segmentation utilisables selon les localisations anatomiques.<br />Nous verrons une application originale : la simulation numérique de la croissance tumorale virtuelle et la comparaison avec la croissance réelle d'une tumeur cérébrale présentée par un patient.<br />Enfin, nous exposerons les futurs développements possibles des outils de traitement de l'image en radiothérapie ainsi que les pistes des recherche à explorer en oncologie.
|
243 |
Capture et Rendu à Base d'Images avec Application aux Projets UrbainsReche, Alex 19 April 2005 (has links) (PDF)
Cette thèse traite le problème de la capture des objets réels dans le but de les intégrer dans un environnement de réalité virtuelle et de les afficher (ou les rendre) d'une manière efficace. La thèse a deux parties : dans la première partie, nous présentons deux nouvelles méthodes pour la capture et le rendu des objets réels avec des techniques à base d'images, et dans la deuxième, nous présentons un système intégré de réalité virtuelle qui permet l'utilisation de plusieurs techniques réalistes pour la conception et l'évaluation de projets d'urbanisme. La première méthode proposée permet la capture d'objets réels avec une géométrie relativement simple, comme les façades de bâtiments par exemple. La capture se fait à partir d'un faible nombre de photographies. Avec cette méthode les objets capturés ont une représentation compacte ; le travail des infographistes est facilité pour permettre un affichage de meilleure qualité et enfin la méthode de rendu ne nécessite pas un découpage géométrique des objets, comme c'était le cas pour les méthodes précédentes. La deuxième méthode proposée traite le cas des objets complexes comme les arbres, à partir d'un ensemble de photographies prises autour de l'objet. Une première estimation de l'opacité est effectuée avec une méthode inspirée de la tomographie, ce qui donne une représentation volumique de l'arbre. Ensuite le détail de haute fréquence du feuillage est ajouté par un algorithme de génération de textures à partir des images d'origine. Le résultat est l'affichage très réaliste des arbres réels capturés, qui peuvent être insérés dans des environnements virtuels. Le système de réalité virtuelle présenté dans la deuxième partie de la thèse intègre des méthodes d'affichage à base d'images, ainsi que d'autres algorithmes d'affichage réaliste (ombres, son 3D, etc.). Le système multi plateforme est opérationnel sur des systèmes de réalité virtuelle allant du plan de travail virtuel à l'Inria Sophia-Antipolis jusqu'à la salle RealityCenter du CSTB. Notre travail dans le cadre d'un projet réel, celui du Tramway de Nice, nous a permis d'évaluer nos choix sur le réalisme et l'interface du système. Plusieurs essais ont été effectués avec les architectes responsables du réaménagement de la Place Garibaldi à Nice, et nous présentons ici les premières conclusions de nos observations.
|
244 |
Résolution de systèmes de équations de distance avec incertitudes.Grandón, Carlos 22 March 2007 (has links) (PDF)
Nous nous intéressons à une classe particulière de problèmes, les systèmes d´équations de distance avec des incertitudes, qui apparaissent fréquemment en robotique (et dans d´autres domaines). Nous considérons les valeurs entachées d´incertitudes comme des valeurs qui ne sont pas exactement connues mais sont dans des limites bien définies. Ces valeurs sont représentées par des intervalles, et représentent fréquemment les mesures de quantités physiques. Résoudre un problème avec des incertitudes signifie trouver les solutions en considérant les inexactitudes des données, afin d´obtenir des réponses certifiées. Le but est de résoudre des systèmes d´équations de distance avec des incertitudes dans leurs paramètres de la manière la plus précise possible, en combinant différentes techniques d´analyse par intervalles et de programmation par contraintes. Nous proposons un algorithme spécifique de type Branch and Prune combiné avec une bissection conditionnelle qui permet de calculer une approximation grossière des différents continuums de solutions. Le calcul d´une approximation plus précise décrivant chaque continuum a été aussi étudié. Nous montrons que pour calculer cette approximation, il faut considérer un test de boîte intérieure, afin de détecter des parties de l´espace contenant seulement des solutions au problème. L´utilisation d´un tel test réduit la quantité de boîtes produites, et fournit plus d´informations à propos des différentes zones solutions. Nous proposons aussi une stratégie de construction de boîte intérieure basée sur des résultats théoriques sur les intervalles modaux combinés avec une technique de programmation par contraintes appelée projection.
|
245 |
Approaches to Assess Validity of Derivatives and to Improve Efficiency in Automatic Differentiation of ProgramsAraya-Polo, Mauricio 24 November 2006 (has links) (PDF)
Ce travail concerne la Differentiation Automatique (DA) de codes. La DA transforme un programme calculant une fonction mathematique en un nouveau programme calculant ses derivees, gagnant ainsi un temps de developpement consequent. L'usage de la DA se repand en Calcul Scientifique, mais souffre encore de quelques problemes.<br>Cette these propose des elements de solution a deux de ces problemes. Le premier probleme est la non-differentiabilite des programmes reels, pour certaines entrees.<br>Les outils de DA negligent souvent ce probleme, alors que les utilisateurs ont besoin d'une grande confiance dans ces derivees avant de les utiliser, par exemple dans des boucles d'optimisation. Quelle que soit son origine reelle, cette non-differentiabilite se traduit dans la structure de controle des programmes. Plutot que d'etudier des extensions de la notion de derivee, nous preferons ici caracteriser le domaine autour des entrees courantes pour lequel le controle reste constant et la differentiabilite est conservee. Nous proposons plusieurs approches et evaluons leurs complexites. Nous etudions formellement une construction du domaine entier, mais sa complexite limite son application. Alternativement, nous proposons une methode directionnelle moins couteuse, que nous avons implementee et validee sur plusieurs exemples. Le second probleme est l'efficacite du mode inverse de la DA, qui produit des codes 'adjoints' calculant des gradients. Ces codes utilisent les valeurs intermediaires du programme initial dans l'ordre inverse, ce qui necessite une combinaison de sauvegarde et de recalcul de ces valeurs. Une tactique fondamentale, nommee 'ckeckpointing', economise de la memoire au prix de la reexecution de segments de code. Dans notre travail, nous formalisons les analyses de flot de donnees necessaires a la differentiation inverse, y compris dans le cas du checkpointing. A partir de cette formalisation, nous proposons deux avancees aux strategies de la DA inverse. D'une part ces analyses nous fournissent des ensembles de valeurs a sauvegarder, que nous pouvons prouver minimaux.<br>D'autre part nous en tirons des indications sur les meilleurs segments de code candidats au checkpointing. Pour experimenter ces choix, nous etendons les analyses et l'algorithme de differentiation inverse de notre outil de DA. Nous montrons les benefices que l'on peut attendre sur des codes reels.
|
246 |
Intégration d'attributs et évolutions de fronts en segmentation d'imagesRousson, Mikaël 06 December 2004 (has links) (PDF)
La détection et l'extraction automatique de régions d'intérêt à l'intérieur d'une image est une étape primordiale pour la compréhension des images. Une multitude d'études dédiées à ce problème ont été proposées durant les dix dernières années. Des algorithmes efficaces et robustes ont été développés pour diverses applications. Cependant, la plupart d'entre eux introduisent des heuristiques propres au type d'image considéré.<br />La variété des caractéristiques possibles définissant une région d'intérêt est le principal facteur limitant leur généralisation. Ces critères région peuvent être le niveau de gris, la couleur, la texture, la forme des objets, etc...<br />Dans cette thèse, nous proposons une formulation générale qui permet d'introduire chacune de ces caractéristiques. Plus précisément, nous considérons l'intensité de l'image, la couleur, la texture, le mouvement et enfin, la connaissance a priori sur la forme des objets à extraire. Dans cette optique, nous obtenons un critère probabiliste à partir d'une formulation Bayésienne du problème de la segmentation d'images. Ensuite, une formulation variationnelle équivalente est introduite et la segmentation la plus probable est finalement obtenue par des techniques d'évolutions de fronts. La représentation par ensembles de niveaux est naturellement introduite pour décrire ces évolutions, tandis que les statistiques régions sont estimées en parallèle. Ce cadre de travail permet de traiter naturellement des images scalaires et vectorielles mais des caractéristiques plus complexes sont considérées par la suite. La texture, le mouvement ainsi que l'a priori sur la forme sont traités successivement. Finalement, nous présentons une extention de notre approche aux images de diffusion à résonance magnétique où des champs de densité de probabilité 3D doivent être considérés.
|
247 |
Test des Systèmes hybridesNahhal, Tarik 10 October 2007 (has links) (PDF)
Les systèmes hybrides, systèmes combinant à la fois une dynamique continue et discrète, s'avèrent être un modèle mathématique utile pour différents phénomènes physiques, technologiques, biologiques ou économiques. Beaucoup d'efforts ont été consacrés à l'élaboration de méthodes automatiques d'analyse pour de tels systèmes, basées sur la vérification formelle. Néanmoins, l'applicabilité de ces méthodes est encore limitée aux systèmes de petite taille en raison de la complexité de l'analyse exhaustive. Le test est une autre approche de validation, qui peut être employée pour des systèmes beaucoup plus grands. En dépit de ses limitations comparées à la vérification algorithmique et déductive, le test reste l'outil standard dans l'industrie.<br />Nous proposons dans cette thèse une méthodologie formelle pour le test de conformité des systèmes hybrides, qui est définie selon la norme internationale pour le test formel de conformité (FMCT). Ensuite, nous abordons le problème de la définition de mesures de couverture de test. Pour cela, deux mesures de couverture sont proposées, qui sont non seulement utiles comme critère pour évaluer la qualité de test mais peuvent être aussi employées pour guider la génération de test vers une meilleur couverture. Des algorithmes de génération de test guidés par les mesures de couverture sont proposés. Ces algorithmes sont basés sur une combinaison des algorithmes de planification de trajectoires dans la robotique, de la théorie d'équidistribution, de la géométrie algorithmique et de la simulation numérique. L'outil HTG (Hybrid test generation) pour la génération de cas de test pour les systèmes hybrides implémente ces algorithmes, et a été appliqué avec succès pour traiter plusieurs études de cas provenant de différentes domaines (circuits analogiques et mixtes, systèmes de commande, etc.).
|
248 |
Développement de techniques nano-sondes pour la meusre du travail de sortie et application aux matériaux en microélectroniqueKaja, Khaled 18 June 2010 (has links) (PDF)
La mesure fiable et spatialement résolue du travail de sortie de matériaux et nanostructures est l'un des problèmes les plus importants en caractérisation de surface avancée pour les applications technologiques. Parmi les méthodes de mesure du travail de sortie disponibles, la microscopie à sonde de Kelvin (KFM), basé sur l'AFM, et la spectromicroscopie de photoémission d'électrons par rayons X (XPEEM) apparaissent comme les méthodes les plus prometteuses. Nous nous sommes intéressés dans cette thèse à l'investigation de la mesure locale du travail de sortie par KFM sous air ainsi qu'à l'étude de la complémentarité entre les mesures obtenues par KFM et XPEEM. Nous présentons tout d'abord une analyse des variations des mesures KFM avec la distance pointe-échantillon sur différents échantillons métalliques. Ces variations peuvent être expliquées par un modèle simple basé sur des transferts de charges de surfaces associés à l'inhomogénéité locale du travail de sortie. L'influence de la pointe, de l'environnement et des paramètres expérimentaux a été aussi étudié. Nous avons ensuite mis en évidence une augmentation de la résolution spatiale de l'imagerie KFM sous air grâce à la mise en oeuvre, sur le microscope commercial, d'un mode combiné AFM-KFM basé sur l‘acquisition simultanée des mesures KFM et de la topographie de surface. Enfin, nous nous sommes focalisés sur la caractérisation croisée par KFM et XPEEM de couches de graphène épitaxiées sur un substrat SiC(0001). Les images du travail de sortie obtenues par KFM sous air permettent de révéler qualitativement, avec une grande résolution spatiale, l'hétérogéneité de ces couches en surface. La mesure complémentaire par XPEEM spectroscopique au seuil de photoémission montre que cette hétérogéneité est liée à l'augmentation du travail de sortie local dû à une épaisseur de graphène variant entre 1 et 4-5 monocouches d'après la littérature. Ceci est corrélé qualitativement avec les intensités locales Si2p et C1s extraites des images XPEEM correspondantes. Des voies pour la compréhension de cette évolution atypique du travail de sortie d'un matériau, sont esquissées d'après la littérature disponible et les résultats micro-spectroscopiques, en terme de couplage électronique avec le substrat SiC.
|
249 |
L'impact d'un choc technologique sur l'emploiSaadallah, Emna January 2006 (has links) (PDF)
La mesure de l'impact d'un choc technologique sur l'emploi peut être abordée selon différents modèles empiriques. Dans le présent mémoire, nous avons essayé d'estimer la réponse de l'emploi, suite à un choc technologique, pour le cas de quatre des pays membres du G7. À cet effet, nous avons fait appel à la représentation structurelle de type SVAR. Dans un premier temps, nous avons estimé cette représentation en optant pour la productivité et l'emploi comme variables. En fait, nous avons mesuré l'impact d'une innovation technologique sur l'emploi selon deux spécifications différentes du modèle SVAR. La variable de l'emploi a, tour à tour, été spécifiée en niveau (LSVAR) et en différence (DSVAR). Les résultats obtenus lors de l'estimation de ces deux modèles semblent, cependant, varier selon la spécification retenue. En particulier, l'emploi semble réagir positivement quand il est spécifié en niveau alors que la réponse est négative quand il s'agit d'une spécification en différence. Nous avons, donc, procédé à l'estimation de l'impact technologique en empruntant la méthodologie proposée par Fève et Guay (2005). Dans ce modèle, on opte pour une nouvelle variable qui est la part de la consommation dans le revenu. Elle vient, de ce fait, remplacer celle de l'emploi au sein de la représentation SVAR. Les résultats obtenus, dans le cadre de ce modèle empirique, traduisent une réponse qui n'est, désormais, plus tributaire de la spécification de la variable de l'emploi. L'effet immédiat du choc est négatif pour l'ensemble des pays étudiés mais l'emploi affiche, pour les périodes suivantes, une nette tendance à la hausse. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Choc technologique, Représentation SVAR, Ratio de la part de la consommation dans le revenu.
|
250 |
Mesure de discrimination envers l'apparence physique au sein d'orchestres symphoniquesMalka, Valérie January 2009 (has links) (PDF)
Afin de limiter la discrimination et le favoritisme, certains orchestres symphoniques ont rendu le processus de recrutement des musiciens complètement anonyme, notamment en installant un écran entre les recruteurs et le postulant. D'autres orchestres n'utilisent pas d'écran durant la majorité ou la totalité du processus. Une base de données originale a été crée dans le but d'évaluer si cette différence entre les processus de recrutement des orchestres offre la possibilité de mesurer la présence de discrimination envers l'apparence physique lors de l'embauche de musiciens. Pour ce faire, la beauté de 341 musiciens appartenant à six grands orchestres nord américains a été mesurée par un jury de cinq personnes, à partir de photos tête et épaules. Ensuite, des caractéristiques tels la beauté, le genre et l'origine ethnique des musiciens recrutés derrière un écran ont été comparées à celles des musiciens recrutés sans écran, à l'aide de probits et de régressions. Les résultats suggèrent que la probabilité que l'apparence physique des musiciens recrutés soit moins harmonieuse augmente lorsqu'un écran est présent, ce qui révèle une tendance à la discrimination dans les orchestres. Cette discrimination serait encore plus marquée dans le cas du recrutement de musiciens occupant des postes clés dans l'orchestre. En d'autres mots, lorsque l'employeur a la possibilité de discriminer les individus selon leur apparence physique, nos résultats montrent que les plus beaux candidats semblent favorisés. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Apparence physique, Beauté, Discrimination, Orchestre, Recrutement.
|
Page generated in 0.0306 seconds