Spelling suggestions: "subject:"imagebased"" "subject:"image.based""
161 |
Um método espectrométrico de emissão em chama baseado em imagens digitais para determinação indireta de fármacos e determinação simultânea de sódio e cálcio / A Digital Image-Based Flame Emission Spectrometric Method for Indirect Determination of Drugs and Simultaneous Determination of Sodium and CalciumLyra, Wellington da Silva 11 September 2012 (has links)
Made available in DSpace on 2015-05-14T13:21:30Z (GMT). No. of bitstreams: 1
arquivototal.pdf: 12264651 bytes, checksum: c1dad0a27d50ddb05acdcc8e21042b61 (MD5)
Previous issue date: 2012-09-11 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / In this work the potential of the Digital Image-Based Flame Emission
Spectrometry (DIB-FES) is demonstrated through two completely separate
applications. The first one consists in the indirect determination of three drugs in
injectable form: sodium dicofenac, sodium dipyrone and clacium gluconate and the
second in the combination of DIB-FES with Multiple Linear Regression (MLR) for the
simultaneous determination of sodium and calcium in powder milk. Up to the present
moment the literature does not report the use of traditional FES in: indirect
determination of organic substances, simultaneous determination of analytes using a
unique detector and overcoming the problem of spectral interference. In DIB-FES
digital images of the flame are captured by webcam in its oxidant region (2,5 cm over
the burner of the flame photometer) and are associated with the radiation emitted by
metals present in the air-butane flame. Based on Red-Green-Blue (RGB) colour
system, univariate and multivariate calibration models were developed, which were
validated and then applied to real samples. In each application the results were
compared with the results obtained by their respective reference methods. There were
no statistically significant differences between the results when the paired t-test at the
95% confidence level. The estimated precision was better than the respective reference
methods and accuracy was assessed by high values of bias and recovery rates
between 97 and 104% in the two applications. / Neste trabalho a potencialidade da Espectrometria de Emissão em Chama
Baseada em Imagens digitais (DIB-FES) é demonstrada por meio de duas aplicações
completamente distintas. A primeira consiste na determinação indireta de três
fármacos em soluções injetáveis: diclofenaco sódico, dipirona sódica e gluconato de
cálcio e a segunda na combinação da DIB-FES com Regressão Linear Múltipla (MLR)
para a determinação simultânea de sódio e cálcio em amostras de leite em pó. Até o
presente momento a literatura não reporta a utilização da FES tradicional na:
determinação indireta de substâncias orgânicas, determinação simultânea de analitos
utilizando um único detector e superação do problema de interferência espectral. Na
DIB-FES as imagens digitais da chama são capturadas pela webcam na região
oxidante da mesma (2,5 cm acima do queimador do fotômetro) e estão associadas às
radiações emitidas pelos metais presentes na chama ar-butano. Com base no sistema
de cores Vermelho-Verde-Azul (RGB) foram desenvolvidos modelos de calibração
univariada e multivariada, os quais foram validados e então aplicados em amostras
reais. Em cada aplicação os resultados obtidos foram comparados com os resultados
obtidos por seus respectivos métodos de referência. Não houve diferenças
estatisticamente significativas entre resultados ao aplicar o teste t emparelhado ao
nível de 95% de confiança. A precisão estimada foi melhor do que a de seus
respectivos métodos de referência e a exatidão foi verificada por altas taxas de
tendência e fatores de recuperação entre 97 e 104% nas duas aplicações.
|
162 |
Sensor-based navigation for robotic vehicles by interaction of human driver and embedded intelligent system / La navigation référencée capteur de véhicules robotisés par l’interaction conducteur humain - système intelligent embarquéKang, Yue 13 September 2016 (has links)
Cette thèse présente une méthode de navigation autonome d’un véhicule routier robotisé dans un contexte de l’interaction conducteur - véhicule, dans lequel le conducteur humain et le système de navigation autonome coopèrent dans le but d’associer les avantages du contrôle manuel et automatique. La navigation du véhicule est réalisée en parallèle par le conducteur humain et le système de conduite automatique, basée sur la perception de l’environnement. La navigation coopérative est basée sur l’analyse et correction des gestes du conducteur humain par le système intelligent, dans le but d’exécuter une tâche de navigation locale qui concerne le suivie de voie avec évitement d’obstacles. L’algorithme d’interaction humain-véhicule est basé sur des composants de navigation référencée capteurs formés par des contrôleurs d’asservissement visuel (VS) et la méthode d’évitement d’obstacle « Dynamic Window Approach (DWA) » basée sur la grilles d’occupation. Ces méthodes prennent en entrée la perception de l’environnement fournie par des capteurs embarqués comprenant un système monovision et un LIDAR. Dû à des impossibilités techniques/légales, nous n’avons pas pu valider nos méthodes sur notre véhicule robotisé (une Renault Zoé robotisée), ainsi nous avons construit des structures « driver-in-theloop » dans des environnements de simulation Matlab et SCANeRTM Studio. En Matlab, le conducteur humain est modélisé par un algorithme appelé « Human Driver Behaviour controller (HDB) », lequel génère des gestes de conduite dangereux dans la partie manuelle de l’entrée de commande du système coopératif. En SCANeR Studio, la sortie de l’HDB est remplacée par des commandes manuelles générées directement par un conducteur humain dans l’interface utilisateur du simulateur. Des résultats de validation dans les deux environnements de simulation montrent la faisabilité et la performance du système de navigation coopérative par rapport aux tâches de suivie de voie, l’évitement d’obstacles et le maintien d’une distance de sécurité. / This thesis presents an approach of cooperative navigation control pattern for intelligent vehicles in the context of human-vehicle interaction, in which human driver and autonomous servoing system cooperate for the purpose of benefiting from mutual advantages of manual and auto control. The navigation of the vehicle is performed in parallel by the driver and the embedded intelligent system, based on the perception of the environment. The cooperative framework we specify concerns the analysis and correction of the human navigation gestures by the intelligent system for the purpose of performing local navigation tasks of road lane following with obstacle avoidance. The human-vehicle interaction algorithm is based on autonomous servoing components as Visual Servoing (VS) controllers and obstacle avoidance method Dynamic Window Approach (DWA) based on Occupancy Grid, which are supported by the environment perception performed carried out by on-boarded sensors including a monovision camera and a LIDAR sensor. Given the technical/legal impossibility of validating our interaction method on our robotic vehicle (a robotic Renault Zoé), the driver-in-the-loop structures of system are designed for simulative environment of both Matlab and SCANeRTM Studio. In Matlab environment human driver is modeled by a code-based Human Driver Behaviour (HDB) Controller, which generates potential dangerous behaviors on purpose as manual control of the cooperative system. In SCANeR Studio environment the HDB is replaced by real-time manual command (a real human driver) via driving interface of this simulator. Results of simulative validation show the feasibility and performance of the cooperative navigation system with respect to tasks of driving security including road lane following, obstacle avoidance and safe distance maintenance.
|
163 |
3D Pose estimation of continuously deformable instruments in robotic endoscopic surgery / Mesure par vision de la position d'instruments médicaux flexibles pour la chirurgie endoscopique robotiséeCabras, Paolo 24 February 2016 (has links)
Connaître la position 3D d’instruments robotisés peut être très utile dans le contexte chirurgical. Nous proposons deux méthodes automatiques pour déduire la pose 3D d’un instrument avec une unique section pliable et équipé avec des marqueurs colorés, en utilisant uniquement les images fournies par la caméra monoculaire incorporée dans l'endoscope. Une méthode basée sur les graphes permet segmenter les marqueurs et leurs coins apparents sont extraits en détectant la transition de couleur le long des courbes de Bézier qui modélisent les points du bord. Ces primitives sont utilisées pour estimer la pose 3D de l'instrument en utilisant un modèle adaptatif qui prend en compte les jeux mécaniques du système. Pour éviter les limites de cette approche dérivants des incertitudes sur le modèle géométrique, la fonction image-position-3D peut être appris selon un ensemble d’entrainement. Deux techniques ont été étudiées et améliorées : réseau des fonctions à base radiale avec noyaux gaussiens et une régression localement pondérée. Les méthodes proposées sont validées sur une cellule expérimentale robotique et sur des séquences in-vivo. / Knowing the 3D position of robotized instruments can be useful in surgical context for e.g. their automatic control or gesture guidance. We propose two methods to infer the 3D pose of a single bending section instrument equipped with colored markers using only the images provided by the monocular camera embedded in the endoscope. A graph-based method is used to segment the markers. Their corners are extracted by detecting color transitions along Bézier curves fitted on edge points. These features are used to estimate the 3D pose of the instrument using an adaptive model that takes into account the mechanical plays of the system. Since this method can be affected by model uncertainties, the image-to-3d function can be learned according to a training set. We opted for two techniques that have been improved : Radial Basis Function Network with Gaussian kernel and Locally Weighted Projection. The proposed methods are validated on a robotic experimental cell and in in-vivo sequences.
|
164 |
[en] RELIEF IMPOSTORS / [pt] IMPOSTORES COM RELEVOESTEBAN WALTER GONZALEZ CLUA 02 September 2004 (has links)
[pt] O presente trabalho introduz o conceito de impostores com
relevo: uma maneira eficiente para representar objetos por
imagens em sistemas que requerem visualização em tempo
real, especialmente jogos 3D e ambientes de realidade
virtual. Para tanto, mesclam-se métodos tipicamente
pertencentes à área de renderização baseada em imagens com
métodos tradicionais de visualização baseada em geometria.
A técnica requer do usuário apenas a modelagem geométrica
da entidade a ser representada. Posteriormente o sistema
sintetiza texturas com relevo, dinamicamente atualizadas
quando necessário, e as visualiza utilizando o método de
mapeamento de texturas com relevo. Esta abordagem permite
inserir modelos complexos, tanto pela sua natureza
geométrica, como pelo seu processo de visualização, no
pipeline gráfico em tempo real. Além disso, os impostores
com relevo procuram aproveitar o tempo ocioso ou recursos
paralelos disponíveis no processador, de forma a balancear
a carga de processamento de visualização entre CPU/GPU.
Estes impostores também tornam possível a representação de
qualquer tipo de objeto geométrico através de mapeamento
de texturas com relevo. / [en] The present work introduces the concept of relief
impostors: an efficient manner of representing objects by
images in systems that require real time rendering, such
as 3D games and virtual reality environments. For this
purpose, typical methods of image-based rendering are
mixed with traditional geometry based rendering methods.
This technique only requires from the user the geometric
modeling of the entity to be represented. After this, the
system synthesizes relief textures, dynamically refreshed
when necessary, and renders them using the method of
relief texture mapping. This approach allows complex
models to be inserted into the real time pipeline system.
This complexity arise either from the geometric nature of
the model or its process of visualization. Also, the
relief impostors try to use the idle time or parallel
resources available on the processor, in order to balance
the work to be done between the CPU and GPU. Furthermore,
they make possible the representation of any kind of
geometric object by the relief texture mapping technique.
|
165 |
Image Segmentation, Parametric Study, and Supervised Surrogate Modeling of Image-based Computational Fluid DynamicsIslam, Md Mahfuzul 05 1900 (has links)
Indiana University-Purdue University Indianapolis (IUPUI) / With the recent advancement of computation and imaging technology, Image-based computational fluid dynamics (ICFD) has emerged as a great non-invasive capability to study biomedical flows. These modern technologies increase the potential of computation-aided diagnostics and therapeutics in a patient-specific environment. I studied three components of this image-based computational fluid dynamics process in this work.
To ensure accurate medical assessment, realistic computational analysis is needed, for which patient-specific image segmentation of the diseased vessel is of paramount importance. In this work, image segmentation of several human arteries, veins, capillaries, and organs was conducted to use them for further hemodynamic simulations. To accomplish these, several open-source and commercial software packages were implemented.
This study incorporates a new computational platform, called InVascular, to quantify the 4D velocity field in image-based pulsatile flows using the Volumetric Lattice Boltzmann Method (VLBM). We also conducted several parametric studies on an idealized case of a 3-D pipe with the dimensions of a human renal artery. We investigated the relationship between stenosis severity and Resistive index (RI). We also explored how pulsatile parameters like heart rate or pulsatile pressure gradient affect RI.
As the process of ICFD analysis is based on imaging and other hemodynamic data, it is often time-consuming due to the extensive data processing time. For clinicians to make fast medical decisions regarding their patients, we need rapid and accurate ICFD results. To achieve that, we also developed surrogate models to show the potential of supervised machine learning methods in constructing efficient and precise surrogate models for Hagen-Poiseuille and Womersley flows.
|
166 |
The image‑based preoperative fistula risk score (preFRS) predicts postoperative pancreatic fistula in patients undergoing pancreatic head resectionKolbinger, Fiona R., Lambrecht, Julia, Leger, Stefan, Ittermann, Till, Speidel, Stefanie, Weitz, Jürgen, Hoffmann, Ralf‑Thorsten, Distler, Marius, Kühn, Jens‑Peter 06 June 2024 (has links)
Clinically relevant postoperative pancreatic fistula (CR-POPF) is a common severe surgical complication after pancreatic surgery. Current risk stratification systems mostly rely on intraoperatively assessed factors like manually determined gland texture or blood loss. We developed a preoperatively available image-based risk score predicting CR-POPF as a complication of pancreatic head resection. Frequency of CR-POPF and occurrence of salvage completion pancreatectomy during the hospital stay were associated with an intraoperative surgical (sFRS) and image-based preoperative CT-based (rFRS) fistula risk score, both considering pancreatic gland texture, pancreatic duct diameter and pathology, in 195 patients undergoing pancreatic head resection. Based on its association with fistula-related outcome, radiologically estimated pancreatic remnant volume was included in a preoperative (preFRS) score for POPF risk stratification. Intraoperatively assessed pancreatic duct diameter (p < 0.001), gland texture (p < 0.001) and high-risk pathology (p < 0.001) as well as radiographically determined pancreatic duct diameter (p < 0.001), gland texture (p < 0.001), high-risk pathology (p = 0.001), and estimated pancreatic remnant volume (p < 0.001) correlated with the risk of CR-POPF development. PreFRS predicted the risk of CR-POPF development (AUC = 0.83) and correlated with the risk of rescue completion pancreatectomy. In summary, preFRS facilitates preoperative POPF risk stratification in patients undergoing pancreatic head resection, enabling individualized therapeutic approaches and optimized perioperative management.
|
167 |
Direct creation of patient-specific Finite Element models from medical images and preoperative prosthetic implant simulation using h-adaptive Cartesian gridsGiovannelli, Luca 10 December 2018 (has links)
Se cree que la medicina in silico supondrá uno de los cambios más disruptivos en
el futuro próximo. A lo largo de la última década se ha invertido un gran esfuerzo
en el desarrollo de modelos computacionales predictivos para mejorar el poder de
diagnóstico de los médicos y la efectividad de las terapias. Un punto clave de esta
revolución, será la personalización, que conlleva en la mayoría de los casos, la creación
de modelos computacionales específicos de paciente, también llamados gemelos digitales.
Esta práctica está actualmente extendida en la investigación y existen en el
mercado varias herramientas de software que permiten obtener modelos a partir de
imágenes. A pesar de eso, para poderse usar en la práctica clínica, estos métodos
se necesita reducir drásticamente el tiempo y el trabajo humano necesarios para la
creación de los modelos numéricos.
Esta tésis se centra en la propuesta de la versión basada en imágenes del Cartesian
grid Finite Element Method (cgFEM), una técnica para obtener de forma automática
modelos a partir de imágenes y llevar a cabo análisis estructurales lineales de huesos,
implantes o materiales heterogéneos.
En la técnica propuesta, tras relacionar la escala de los datos de la imágen con
valores de propiedades mecánicas, se usa toda la información contenida en los píxeles
para evaluar las matrices de rigidez de los elementos que homogenizan el comportamiento
elástico de los grupos de píxeles contenidos en cada elemento. Se h-adapta
una malla cartesiana inicialmente uniforme a las características de la imágen usando
un procedimiento eficiente que tiene en cuenta las propiedades elásticas locales asociadas
a los valores de los píxeles. Con eso, se evita un suavizado excesivo de las
propiedades elásticas debido a la integración de los elementos en áreas altamente heterogéneas,
pero, no obstante, se obtienen modelos finales con un número razonable
de grados de libertad.
El resultado de este proceso es una malla no conforme en la que se impone la continudad
C0 de la solución mediante restricciones multi-punto en los hanging nodes.
Contrariamente a los procedimientos estandar para la creación de modelos de Elementos
Finitos a partir de imágenes, que normalmente requieren la definición completa y
watertight de la geometrá y tratan el resultado como un CAD estandar, con cgFEM
no es necesario definir ninguna entidad geométrica dado que el procedimiento propuesto
conduce a una definición implícita de los contornos. Sin embargo, es inmediato
incluirlas en el modelo en el caso de que sea necesario, como por ejemplo superficies
suaves para imponer condiciones de contorno de forma más precisa o volúmenes
CAD de dispositivos para la simulación de implantes. Como consecuencia de eso, la
cantidad de trabajo humano para la creación de modelos se reduce drásticamente.
En esta tesis, se analiza en detalles el comportamiento del nuevo método en problemas
2D y 3D a partir de CT-scan y radiográfias sintéticas y reales, centrandose en
tres clases de problemas. Estos incluyen la simulación de huesos, la caracterización de
materiales a partir de TACs, para lo cual se ha desarrollado la cgFEM virtual characterisation
technique, y el análisis estructural de futuros implantes, aprovechando la
capacidad del cgFEM de combinar fácilmente imágenes y modelos de CAD. / Es creu que la medicina in silico suposarà un dels canvis més disruptius en el futur
pròxim. Al llarg de l'última dècada, s'ha invertit un gran esforç en el desenvolupament
de models computacionals predictius per millorar el poder de diagnòstic dels
metges i l'efectivitat de les teràpies. Un punt clau d'aquesta revolució, serà la personalització,
que comporta en la majoria dels casos la creació de models computacionals
específics de pacient. Aquesta pràctica està actualment estesa en la investigació i hi
ha al mercat diversos software que permeten obtenir models a partir d'imatges. Tot i
això, per a poder-se utilitzar en la pràctica clínica aquests métodes es necessita reduir
dràsticament el temps i el treball humà necessaris per a la seva creació. Aquesta tesi
es centra en la proposta d'una versió basada en imatges del Cartesian grid Finite Element
Method (cgFEM), una técnica per obtenir de forma automàticament models a
partir d'imatges i dur a terme anàlisis estructurals lineals d'ossos, implants o materials
heterogenis. Després de relacionar l'escala del imatge a propietats macàniques corresponents,
s'usa tota la informació continguda en els píxels per a integrar les matrius
de rigidesa dels elements que homogeneïtzen el comportament elàstic dels grups de
píxels continguts en cada element. Es emphh-adapta una malla inicialment uniforme
a les característiques de la imatge usant un procediment eficient que té en compte
les propietats elàstiques locals associades als valors dels píxels. Amb això, s'evita un
suavitzat excessiu de les propietats elàstiques a causa de la integració dels elements en
àrees altament heterogénies, però, tot i això, s'obtenen models finals amb un nombre
raonable de graus de llibertat. El resultat d'aquest procés és una malla no conforme
en la qual s'imposa la continuïtat C0 de la solució mitjançant restriccions multi-punt
en els hanging nodes. Contràriament als procediments estàndard per a la creació de
models d'Elements finits a partir d'imatges, que normalment requereixen la definició
completa i watertight de la geometria i tracten el resultat com un CAD estàndard,
amb cgFEM no cal definir cap entitat geométrica. No obstant això, és immediat
incloure-les en el model en el cas que sigui necessari, com ara superfícies suaus per
imposar condicions de contorn de forma més precisa o volums CAD de dispositius per
a la simulació d'implants. Com a conseqüéncia d'això, la quantitat de treball humà
per a la creació de models es redueix dràsticament. En aquesta tesi, s'analitza en
detalls el comportament del nou métode en problemes 2D i 3D a partir de CT-scan
i radiografies sintétiques i reals, centrant-se en tres classes de problemes. Aquestes
inclouen la simulació d'ossos, la caracterització de materials a partir de TACs, per a
la qual s'ha desenvolupat la cgFEM virtual characterisation technique, i l'anàlisi estructural
de futurs implants, aprofitant la capacitat del cgFEM de combinar fàcilment
imatges i models de CAD. / In silico medicine is believed to be one of the most disruptive changes in the near future.
A great effort has been carried out during the last decade to develop predicting
computational models to increase the diagnostic capabilities of medical doctors and
the effectiveness of therapies. One of the key points of this revolution, will be personalisation,
which means in most of the cases creating patient specific computational
models, also called digital twins. This practice is currently wide-spread in research
and there are quite a few software products in the market to obtain models from
images. Nevertheless, in order to be usable in the clinical practice, these methods
have to drastically reduce the time and human intervention required for the creation
of the numerical models.
This thesis focuses on the proposal of image-based Cartesian grid Finite Element
Method (cgFEM), a technique to automatically obtain numerical models from images
and carry out linear structural analyses of bone, implants or heterogeneous materials.
In the method proposed in this thesis, after relating the image scale to corresponding
elastic properties, all the pixel information will be used for the integration of the
element stiffness matrices, which homogenise the elastic behaviour of the groups of
pixels contained in each element. An initial uniform Cartesian mesh is h-adapted
to the image characteristics by using an efficient refinement procedure which takes
into account the local elastic properties associated to the pixel values. Doing so we
avoid an excessive elastic property smoothing due to element integration in highly
heterogeneous areas, but, nonetheless obtain final models with a reasonable number
of degrees of freedom.
The result of the process is non-conforming mesh in which C0 continuity is enforced
via multipoint constraints at the hanging nodes. In contrast to the standard
procedures for the creation of Finite Element models from images, which usually require
a complete and watertight definition of the geometry and treat the result as a
standard CAD, with cgFEM it is not necessary to define any geometrical entity, as
the procedure proposed leads to an implicit definition of the boundaries. Nonetheless,
they are straightforward to include in the model if necessary, such as smooth surfaces
to impose the boundary conditions more precisely or CAD device volumes for the
simulation of implants. As a consequence, the amount of human work required for
the creation of the numerical models is drastically reduced.
In this thesis, we analyse in detail the new method behaviour in 2D and 3D problems
from CT-scans and X-ray images and synthetic images, focusing on three classes
of problems. These include the simulation of bones, the material characterisation of
solid foams from CT scans, for which we developed the cgFEM virtual characterisation
technique, and the structural analysis of future implants, taking advantage of
the capability of cgFEM to easily mix images and CAD models. / Giovannelli, L. (2018). Direct creation of patient-specific Finite Element models from medical images and preoperative prosthetic implant simulation using h-adaptive Cartesian grids [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/113644
|
168 |
Roadmark reconstruction from stereo-images acquired by a ground-based mobile mapping system / Reconstruction de marquages routiers à partir d'images terrestresSoheilian, Bahman 01 April 2008 (has links)
Malgré les récentes avancées des Systèmes de Cartographie Mobile, la reconstruction automatique d’objets à partir des données acquises est encore un point crucial. Dans cette thèse, nous nous intéresserons en particulier à la reconstruction tridimensionnelle du marquage au sol à partir d’images acquises sur le réseau routier par une base stéréoscopique horizontale d’un système de cartographie mobile, dans un contexte urbain dense. Une nouvelle approche s’appuyant sur la connaissance de la géométrie 3D des marquages au sol est présentée, conduisant à une précision de reconstruction 3D centimétrique avec un faible niveau de généralisation. Deux objets de la signalisation routière horizontale sont étudiés : les passages piétons et les lignes blanches discontinues. La stratégie générale est composée de trois grandes étapes. La première d’entre elles permet d’obtenir des chaînes de contours 3D. Les contours sont extraits dans les images gauche et droite. Ensuite, un algorithme reposant sur une optimisation par programmation dynamique est mis en oeuvre pour apparier les points de contours des deux images. Un post-traitement permet un appariement sub-pixellique, et, les chaînes de contours 3D sont finalement obtenues par une triangulation photogrammétrique classique. La seconde étape fait intervenir les spécifications géométriques des marquages au sol pour réaliser un filtrage des chaînes de contours 3D. Elle permet de déterminer des candidats pour les objets du marquage au sol. La dernière étape peut être vue comme une validation permettant de rejeter ou d’accepter ces hypothèses. Les candidats retenus sont alors reconstruits finement. Pour chaque bande d’un passage piéton ou d’une ligne discontinue, le modèle est un quasi-parallélogramme. Une contrainte de planéité est imposée aux sommets de chaque bande, ce qui n’est pas le cas pour l’ensemble des bandes formant un marquage au sol particulier. La méthode est évaluée sur un ensemble de 150 paires d’images acquises en centre ville dans des conditions normales de trafic. Les résultats montrent la validité de notre stratégie en terme de robustesse, de complétude et de précision géométrique. La méthode est robuste et permet de gérer les occultations partielles ainsi que les marquages usés ou abîmés. Le taux de détection atteint 90% et la précision de reconstruction 3D est de l’ordre de 2 à 4 cm. Finalement, une application de la reconstruction des marquages au sol est présentée : le géoréférencement du système d’acquisition. La majorité des systèmes de cartographie mobile utilisent des capteurs de géoréférencement direct comme un couplage GPS/INS pour leur localisation. Cependant, en milieu urbain dense, les masques et les multi-trajets corrompent les mesures et conduisent à une précision d’environ 50 cm. Afin d’améliorer la qualité de localisation, nous cherchons à apparier les images terrestres avec des images aériennes calibrées de la même zone. Les marquages au sol sont alors utilisés comme objets d’appariement. La validité de la méthode est démontrée sur un exemple de passage piéton / Despite advances in ground-based Mobile Mapping System (MMS), automatic feature reconstruction seems far from being reached. In this thesis, we focus on 3D roadmark reconstruction from images acquired by road looking cameras of a MMS stereo-rig in dense urban context. A new approach is presented, that uses 3D geometric knowledge of roadmarks and provides a centimetric 3D accuracy with a low level of generalisation. Two classes of roadmarks are studied: zebra-crossing and dashed-lines. The general strategy consists in three main steps. The first step provides 3D linked-edges. Edges are extracted in the left and right images. Then a matching algorithm that is based on dynamic programming optimisation matches the edges between the two images. A sub-pixel matching is computed by post processing and 3D linked-edges are provided by classical photogrammetric triangulation. The second step uses the known specification of roadmarks to perform a signature based filtering of 3D linked-edges. This step provides hypothetical candidates for roadmark objects. The last step can be seen as a validation step that rejects or accepts the candidates. The validated candidates are finely reconstructed. The adopted model consists of a quasi parallelogram for each strip of zebra-crossing or dashed-line. Each strip is constrained to be flat but the roadmark as a whole is not planar. The method is evaluated on a set of 150 stereo-pairs acquired in a real urban area under normal traffic conditions. The results show the validity of the approach in terms of robustness, completeness and geometric accuracy. The method is robust and deals properly with partially occluded roadmarks as well as damaged or eroded ones. The detection rate reaches 90% and the 3D accuracy is about 2-4 cm. Finally an application of reconstructed roadmarks is presented. They are used in georeferencing of the system. Most of the MMSs use direct georeferencing devices such as GPS/INS for their localisation. However in urban areas masks and multi-path errors corrupt the measurements and provide only 50 cm accuracy. In order to improve the localisation quality, we aim at matching ground-based images with calibrated aerial images of the same area. For this purpose roadmarks are used as matching objects. The validity of this method is demonstrated on a zebra-crossing example
|
169 |
Multiscale stochastic fracture mechanics of composites informed by in-situ X-ray CT testsSencu, Razvan January 2017 (has links)
This thesis presents the development of a new multiscale stochastic fracture mechanics modelling framework informed by in-situ X-ray Computed Tomography (X-ray CT) tests, which can be used to enhance the quality of new designs and prognosis practices for fibre reinforced composites. To reduce the empiricism and conservatism of existing methods, this PhD research systematically has tackled several challenging tasks including: (i) extension of the cohesive interface crack model to multi-phase composites in both 2D and 3D, (ii) development of a new in-house loading rig to support in-situ X-ray CT tests, (iii) reconstruction of low phase-contrast X-ray CT datasets of carbon fibre composites, (iv) integration of X-ray CT image-based models into detailed crack propagation FE modelling and (v) validation of a partially informed multiscale stochastic modelling method by direct comparison with in-situ X-ray CT tensile test results.
|
170 |
Localisation à partir de caméra vidéo portéeDovgalecs, Vladislavs 05 December 2011 (has links) (PDF)
L'indexation par le contenu de lifelogs issus de capteurs portés a émergé comme un enjeu à forte valeur ajoutée, permettant l'exploitation de ces nouveaux types de donnés. Rendu plus accessible par la récente disponibilité de dispositifs miniaturisés d'enregistrement, les besoins se sont accrus pour l'extraction automatique d'informations pertinentes à partir de contenus générés par de tels dispositifs. Entre autres applications, la localisation en environnement intérieur est l'un des verrous que nous abordons dans cette thèse. Beaucoup des solutions existantes pour la localisation fonctionnent insuffisamment bien ou nécessitent une intervention manuelle importante. Dans cette thèse, nous abordons le problème de la localisation topologique à partir de séquences vidéo issues d'une camera portée en utilisant une approche purement visuelle. Ce travail complète d'extraction des descripteurs visuels de bas niveaux jusqu'à l'estimation finale de la localisation à l'aide d'algorithmes automatiques. Dans ce cadre, les contributions principales de ce travail concernent l'exploitation efficace des informations apportées par des descripteurs visuels multiples, par les images non étiquetées et par la continuité temporelle de la vidéo. Ainsi, la fusion précoce et la fusion tardive des données visuelles ont été examinées et l'avantage apporté par la complémentarité des descripteurs visuels a été mis en évidence sur le problème de la localisation. En raison de difficulté à obtenir des données étiquetées en quantités suffisantes, l'ensemble des données a été exploité ; d'une part les approches de réduction de dimensionnalité non-linéaire ont été appliquées, afin d'améliorer la taille des données à traiter et la complexité associée; d'autre part des approches semi-supervisés ont été étudiées pour utiliser l'information supplémentaire apportée par les images non étiquetées lors de la classification. Ces éléments ont été analysé séparément et ont été mis en oeuvre ensemble sous la forme d'une nouvelle méthode par co-apprentissage avec information temporelle. Finalement nous avons également exploré la question de l'invariance des descripteurs, en proposant l'utilisation d'un apprentissage invariant à la transformation spatiale, comme une autre réponse possible au manque de données annotées et à la variabilité visuelle. Ces méthodes ont été évaluées sur des séquences vidéo en environnement contrôlé accessibles publiquement pour évaluer le gain spécifique de chaque contribution. Ce travail a également été appliqué dans le cadre du projet IMMED, qui concerne l'observation et l'indexation d'activités de la vie quotidienne dans un objectif d'aide au diagnostic médical, à l'aide d'une caméra vidéo portée. Nous avons ainsi pu mettre en oeuvre le dispositif d'acquisition vidéo portée et montrer le potentiel de notre approche pour l'estimation de la localisation topologique sur un corpus présentant des conditions difficiles représentatives des données réelles.
|
Page generated in 0.045 seconds