• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 154
  • 78
  • 21
  • Tagged with
  • 255
  • 105
  • 52
  • 32
  • 31
  • 31
  • 30
  • 29
  • 25
  • 25
  • 21
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Etude d'un système de conversion analogique-numérique rapide de grande résolution adapté aux nouvelles générations de capteurs d'images CMOS / Study of a high speed high resolution analog to digital conversion system adapted for new generations of CMOS image sensors.

Ben aziza, Sassi 03 May 2018 (has links)
Les technologies CMOS représentent aujourd’hui plus de 90% du marché des capteurs d’images : elles permettent d’intégrer des systèmes intelligents dans une seule puce (SoC = System-On-Chip) et ouvrent la voie à l’intégration d’algorithmes de plus en plus complexes dans les dernières générations de capteurs. Des techniques telles que la reconstruction grande dynamique nécessitent d’acquérir plusieurs images avec un même capteur et de les recombiner. Ces nouvelles contraintes nécessitent d’augmenter drastiquement le débit d’images pour des capteurs de tailles conséquentes (Jusqu'à 30 Mpixels), ainsi que d’augmenter la résolution du convertisseur analogique numérique (jusqu’à 14 bits). Cela crée une demande forte en techniques de conversion analogique-numérique. Ces techniques doivent obéir en même temps aux contraintes de performance notamment la vitesse, la résolution, le faible bruit, la faible consommation et l'intégrabilité mais aussi aux contraintes de qualité d'image impactées directement par la chaine de conversion analogique-numérique en plus de la technologie du pixel. D'ici découle une double problématique pour le sujet:- Etudier et déterminer les limites atteignables en termes de performance sur les différents axes précités.- Gestion du fonctionnement massivement parallèle lié à la structure inhérente des capteurs d'image en vue d'avoir une qualité d'image irréprochable. / CMOS technologies represent nowadays more than 90% of image sensors market given their features namely the possibility of integrating entire intelligent systems on the same chip (SoC = System-On-Chip). Thereby, allowing the implementation of more and more complex algorithms in the new generations of image sensors.New techniques have emerged like high dynamic range reconstruction which requires the acquisition of several images to build up one, thus multiplying the frame rate.These new constraints require a drastic increase of image rate for sensors ofconsiderable size (Up to 30 Mpix and more). At the same time, the ADCresolution has to be increased to be able to extract more details (until 14 bits).With all these demanding specifications, analog-to-digital conversion capabilities have to be boosted as far as possible.These capabilities can be distinguished into two main research axes representing the pillars of the PhD work, namely:+ The study of the reachable limits in terms of performance: Speed, Resolution,Low Noise, Low power consumption and small design pitch.+ The management of the highly parallel operation linked to the structure of animage sensor. Solutions have to be found so as to avoid image artefacts andpreserve the image quality.
212

Caractéristiques des corrections automatiques assurant la précision spatiale d’un mouvement d’atteinte manuelle

Brière, Julien 01 1900 (has links)
No description available.
213

Contributions to decision tree based learning / Contributions à l’apprentissage de l’arbre des décisions

Qureshi, Taimur 08 July 2010 (has links)
Advances in data collection methods, storage and processing technology are providing a unique challenge and opportunity for automated data learning techniques which aim at producing high-level information, or models, from data. A Typical knowledge discovery process consists of data selection, data preparation, data transformation, data mining and interpretation/validation of the results. Thus, we develop automatic learning techniques which contribute to the data preparation, transformation and mining tasks of knowledge discovery. In doing so, we try to improve the prediction accuracy of the overall learning process. Our work focuses on decision tree based learning and thus, we introduce various preprocessing and transformation techniques such as discretization, fuzzy partitioning and dimensionality reduction to improve this type of learning. However, these techniques can be used in other learning methods e.g. discretization can also be used for naive-bayes classifiers. The data preparation step represents almost 80 percent of the problem and is both time consuming and critical for the quality of modeling. Discretization of continuous features is an important problem that has effects on accuracy, complexity, variance and understandability of the induction models. In this thesis, we propose and develop resampling based aggregation techniques that improve the quality of discretization. Later, we validate by comparing with other discretization techniques and with an optimal partitioning method on 10 benchmark data sets.The second part of our thesis concerns with automatic fuzzy partitioning for soft decision tree induction. Soft or fuzzy decision tree is an extension of the classical crisp tree induction such that fuzzy logic is embedded into the induction process with the effect of more accurate models and reduced variance, but still interpretable and autonomous. We modify the above resampling based partitioning method to generate fuzzy partitions. In addition we propose, develop and validate another fuzzy partitioning method that improves the accuracy of the decision tree.Finally, we adopt a topological learning scheme and perform non-linear dimensionality reduction. We modify an existing manifold learning based technique and see whether it can enhance the predictive power and interpretability of classification. / La recherche avancée dans les méthodes d'acquisition de données ainsi que les méthodes de stockage et les technologies d'apprentissage, s'attaquent défi d'automatiser de manière systématique les techniques d'apprentissage de données en vue d'extraire des connaissances valides et utilisables.La procédure de découverte de connaissances s'effectue selon les étapes suivants: la sélection des données, la préparation de ces données, leurs transformation, le fouille de données et finalement l'interprétation et validation des résultats trouvés. Dans ce travail de thèse, nous avons développé des techniques qui contribuent à la préparation et la transformation des données ainsi qu'a des méthodes de fouille des données pour extraire les connaissances. A travers ces travaux, on a essayé d'améliorer l'exactitude de la prédiction durant tout le processus d'apprentissage. Les travaux de cette thèse se basent sur les arbres de décision. On a alors introduit plusieurs approches de prétraitement et des techniques de transformation; comme le discrétisation, le partitionnement flou et la réduction des dimensions afin d'améliorer les performances des arbres de décision. Cependant, ces techniques peuvent être utilisées dans d'autres méthodes d'apprentissage comme la discrétisation qui peut être utilisées pour la classification bayesienne.Dans le processus de fouille de données, la phase de préparation de données occupe généralement 80 percent du temps. En autre, elle est critique pour la qualité de la modélisation. La discrétisation des attributs continus demeure ainsi un problème très important qui affecte la précision, la complexité, la variance et la compréhension des modèles d'induction. Dans cette thèse, nous avons proposes et développé des techniques qui ce basent sur le ré-échantillonnage. Nous avons également étudié d'autres alternatives comme le partitionnement flou pour une induction floue des arbres de décision. Ainsi la logique floue est incorporée dans le processus d'induction pour augmenter la précision des modèles et réduire la variance, en maintenant l'interprétabilité.Finalement, nous adoptons un schéma d'apprentissage topologique qui vise à effectuer une réduction de dimensions non-linéaire. Nous modifions une technique d'apprentissage à base de variété topologiques `manifolds' pour savoir si on peut augmenter la précision et l'interprétabilité de la classification.
214

Développement de capteurs électrochimiques basés sur de la voltammétrie par échantillonnage de courant sur réseau d'électrodes / Designed of electrochemical sensor based on sampled-current voltammetry performed on an electrode array

Mazerie, Isabelle 09 December 2016 (has links)
Comme dans beaucoup de domaines, la sécurité dépend du développement de méthodes analytiques très sensibles et fiables pour pouvoir détecter des molécules dangereuses. C'est pourquoi il est important de développer des méthodes simples afin de diagnostiquer rapidement un composé dangereux dans notre environnement. Dans ce contexte, les techniques électrochimiques offrent une alternative intéressante puisqu'elles permettent d'atteindre de grandes sensibilités et une bonne sélectivité, elles sont peu coûteuses et facilement adaptables pour la création de dispositifs portables. Récemment, notre équipe a développé un nouveau concept basé sur de la voltammétrie par échantillonnage de courant sur un réseau d'électrodes (EASCV), lequel est compatible avec la miniaturisation. Ce système permet de renouveler la surface et la solution au voisinage de l'électrode pendant l'analyse. Le projet de cette thèse a été d'étendre l'application de cette technique à des méthodes électrochimiques utilisant une étape de préconcentration. Une première étude, appliquée à la détection du phénol, a permis de montrer que l'EASCV offre une solution intéressante pour diminuer les phénomènes de passivation ayant lieu pendant l'analyse. En effet, une étude expérimentale associée à une étude théorique a montré que si un temps d'échantillonnage court était appliqué, le phénomène de passivation pouvait être évité. Enfin, pour la première fois, il a été possible de coupler la voltammétrie par échantillonnage de courant à la redissolution anodique. Cette étude, appliquée à la détection du plomb, a permis de mettre en place une courbe d'étalonnage et d'obtenir une intensité élevée de courant, 300 fois plus importante qu'avec les techniques classiques de redissolution anodique. Les premiers essais pour adapter ce nouveau concept aux méthodes pulsés se sont également montrés très encourageants. Afin d'améliorer la sensibilité et la sélectivité du capteur, le réseau d'électrodes a été fonctionnalisé. La modification dépend de la nature de l'espèce cible. Ainsi des polymères à empreintes moléculaires (pour des molécules comme la mélamine) ou des ligands (pour des ions comme le plomb) ont été testés. Dans les deux cas, une méthode d'électrogreffage a été mise au point pour fonctionnaliser la surface. Les premiers résultats obtenus sont encourageants puisqu'une courbe courant-potentiel a pu être tracée montrant une sensibilité 10 fois plus grande pour le plomb que celle obtenue avec une préconcentration par électrodépôt. / As in many fields, safety is primarily based on the development of reliable and highly sensitive analytical methods to detect hazardous molecules. Therefore there is a need for developing simple methods for the diagnosis of harmful molecules in our environment. In this context, electrochemical detection systems seems very promising because they are highly sensitive, require short analysis time, are easy to implement and economic to fabricate. Moreover, our team has recently developed a new concept of device based on sampled-current voltammetry performed on an electrode array (EASCV) which is compatible with miniaturization and portability. The system allows the renewal of the electrode surface and of the analytical solution during the analysis. The present project addresses these issues and aims to extend it to methods involving a preconcentration step. A first study, for the detection of phenol, showed that EASCV offers a versatile solution to decrease fouling effect during the analysis. Indeed experimental and theoretical studies show that the renewable of electrode surface and of the solution in the vicinity of the electrode associated with the use of a short sampled time can avoid electrode fouling. For the first time, it was possible to combine sampled-current voltammetry with anodic stripping voltammetry. In this study, we were able to create a calibration curve, for the detection of lead, and we obtained current intensities 300 times higher than with usual linear stripping voltammetry.First attempts to adapt this new concept to pulse methods were promising.. To increase the sensitivity and selectivity of the sensor, the electrode array is chemically modified. The nature of this modification depends on the nature of the analyte. Thus, molecular imprinted polymer (for molecules) or macrocyclic ligands (for ions) are tested In both cases, an electrografting method is achieved to functionalize the surface. The first results are promising since a current-potential curve is obtained with a sensibility ten times higher than with a preconcentration by electrodeposition.
215

The equation of state of the Hydrogen-Helium mixture with application to the Sun / Equation d’état du mélange hydrogen-helium à basse densité et application au Soleil

Wendland, David 30 October 2015 (has links)
L’étude des propriétés d’équilibre d’un système Coulombien quantique à plusieurs composantes présente un intérêt théorique fondamental, au-delà de ses nombreuses applications. Le mélange hydrogène-hélium est omniprésent dans la nébuleuse interstellaire ou les planètes géantes, et c’est aussi le constituant majoritaire du Soleil, où les interactions entre électrons et noyaux sont purement électrostatiques en première approximation.Ce travail est dévolu à l’équation d’état de ce mélange vu comme un plasma quantique constitué de protons, de noyaux d’Hélium et d’électrons. Dans ce cadre, nous développons des méthodes numériques pour estimer des intégrales de chemin représentant des ingrédients essentiels. En outre, nous construisons une nouvelle version de la diagrammatique à la Mayer resommée bien adaptée à nos objectifs.Tout d’abord, nous améliorons le double développement basse température et basse densité, dit SLT, pour l’hydrogène pur, grâce à de meilleures estimations des termes à trois corps, les résultats étant par ailleurs comparés à la fameuse équation d’état OPAL. Les densités plus élevées sont atteintes de manière non-perturbative, en utilisant des fonctions de partition d’entités recombinées suffisamment précises. Ainsi l’ionisation par pression est décrite sur une base théorique robuste. Nous étudions également d’autres quantités d’équilibre, comme l’énergie interne et la vitesse du son. Dans la dernière partie, nous calculons l’équation d’état du mélange hydrogène-hélium en incluant les effets d’écran associés aux ions He+, ainsi que des corrections à la Debye déterminées de manière auto-cohérente. Nos résultats nous permettent de comprendre le contenu physique d’approches ad-hoc et de déterminer leurs régimes de validité. Nous obtenons aussi une description plus fiable du mélange, qui devrait être précise le long de l'adiabate du Soleil. / The study of the thermodynamic properties of a multi-component quantum Coulomb system is of fundamental theoretical interest and has, beyond that, a wide range of applications. The Hydrogen-Helium mixture can be found in the interstellar nebulae and giant planets, however the most prominent example is the Sun. Here the interaction between the electrons and the nuclei is almost purely electrostatic.In this work we study the equation of state of the Hydrogen-Helium mixture starting from first principles, meaning the fundamental Coulomb interaction of its constituting particles. In this context we develop numerical methods to study the few-particle clusters appearing in the theory by using the path integral language. To capture the effects of the long-range Coulomb interaction between the fundamental particles, we construct a new version of Mayer-diagrammatic, which is appropriate for our purposes. In a first step, we ameliorate the scaled-low-temperature (SLT) equation of state, valid in the limit of low density and low temperature, by taking three-body terms into account and we compare the predictions to the well-established OPAL equation of state. Higher densities are accessed by direct inversion of the density equations and by the use of cluster functions that include screening effects. These cluster functions put the influence of screening on the ionization, unto now treated ad-hoc, on a theoretically well-grounded basis. We also inspect other equilibrium quantities such as the speed of sound and the inner energy. In the last part we calculate the equation of state of the Hydrogen-Helium mixture including the charged He+ ions in the screening process. Our work gives insights in the physical content of previous phenomenological descriptions and helps to better determine their range of validity. The equation of state derived in this thesis is expected to be very precise as well as reliable for conditions found in the Sun.
216

Développement de méthodes d'échantillonnage rapides et d'analyses différées au laboratoire : détermination de l'évolution temporelle des concentrations des COVs et COSVs et compréhension des processus physico-chimiques en air intérieur / Development of rapid air sampling methods followed by analyses in laboratory : determination of temporal variations of volatile organic compounds and semi-volatile organic compounds concentrations to highlight indoor physico-chemical processes

Liaud, Céline 20 November 2014 (has links)
Cette thèse se consacre à la mise au point de techniques d’échantillonnage suivies d’analyses réalisées au laboratoire pour mettre en évidence les espèces majoritaires en air intérieur et caractériser leurs variations temporelles. Le développement analytique a été effectué pour 52 COVs et pour 16 HAPs associés à la phase particulaire de l’air. Les prélèvements des COVs ont été réalisés au moyen d’un préleveur automatique permettant d’échantillonner l’air sur des tubes extraits par désorption thermique et analysés par chromatographie gazeuse couplée à la détection FID. Pour la quantification des HAPs, le prélèvement des particules est effectué par un impacteur à cascade à trois étages permettant de fractionner l’aérosol en fonction de leur diamètre aérodynamique. Les HAPs sont quantifiés par chromatographie liquide haute performance couplée à la détection par fluorescence. Ces deux techniques ont été mises en application dans le cadre de la 1ère campagne intensive du projet MERMAID. / This work aims at developing rapid and simple air sampling techniques followed by laboratory analyses to highlight the occurrence of the main species in indoor air and to describe their temporal variations. The analytical development was focused on 52 VOCs belonging to a wide variety of chemical families to determine their concentrations. The sampling step was performed using an automatic sampler allowing the sampling of air on adsorbent tubes. These tubes were then thermally desorbed and analyzed by gas chromatography coupled to FID. Another analytical development was conducted to determine the particle bound PAHs concentrations. The sampling of particles was realized by the mean of a 3-stages cascade impactor allowing an aerosol fractionation depending on their aerodynamic diameter. Finally, quantification of PAHs was realized by liquid chromatography coupled to fluorescence detection. These two techniques were applied in a field campaign in the frame of the MERMAID program.
217

Identification, écologie et utilisation des diptères hématophages (glossine, stomoxe et tabanide) comme moyen d'échantillonnage non-invasif de la faune sauvage dans quatre parcs du Gabon / Identification, ecology and use blood meals from hematophagous Diptera (Glossinidae, Stomoxys and Tabanidae) for noninvasive sampling of wildlife in four national parks of Gabon

Bitome Essono, Paul Yannick 10 December 2015 (has links)
Avec la mise en place des politiques de conservation des espèces sauvages, l'extension de l'urbanisation et l'accroissement des populations humaines, le contact homme-faune a considérablement augmenté au cours de ces dernières décennies. Par conséquent, le nombre de maladies d'origines zoonotiques a explosé avec six apparitions d'agents infectieux par an, dont 75% sont susceptibles d’être transmises par un vecteur. La plupart de ces maladies n'ayant pas encore de vaccins, les principales méthodes d'évitement sont basées sur les stratégies de lutte anti-vectorielle adaptées à l'écologie et au comportement alimentaire des vecteurs. Au Gabon, particulièrement dans les parcs nationaux, nous avons identifié six espèces de glossines (Glossina palpalis palpalis, G. fuscipes fuscipes, G. fusca congolense, G. pallicera newsteadi, G. caliginea et G tabaniformis) vivant principalement en milieux forestiers, six espèces de stomoxes (Stomoxys calcitrans, S. inornatus, S. niger niger, S. niger bilineatus, S. omega omega et S. transvittatus) inféodées aux milieux ouverts types forêt secondaire, savane et villages. Nous avons également identifié six espèces de tabanides (Ancala sp., Atylotus sp., Chrysops sp., Haematopota sp., Tabanus par et T. taeniola), mais leur distribution n'était pas claire dans les milieux prospectés. Par ailleurs, nous constatons que ces mouches hématophages ont un régime alimentaire très diversifié, comprenant les mammifères terrestres et aquatiques, les reptiles et les oiseaux. Elles se nourrissent à 86% sur la faune, contre seulement 14% sur l'homme. Cependant, dans les milieux anthropisés les repas sanguins d'origine humaine sont très importants, notamment dans les villages (100%) et autour des camps de recherche implantés dans les parcs (24%). Ainsi en l'absence de faune dans le milieu, ces mouches hématophages se nourrissent sur l'homme. Comme 75% des maladies émergentes chez l'homme proviennent de la faune sauvage et que près de ¾ d'entre elles circulent via le sang, elles sont donc susceptibles d’être détectées dans les repas sanguins de mouches hématophages. Cette technique d'échantillonnage non-invasif de la faune sauvage semble être un bon moyen d'identifier les agents infectieux à ADN (plasmodiums et trypanosomes), mais reste encore imprécise pour les agents infectieux à ARN (arbovirus). / The contact between human and wild fauna has considerably increased during these last decades due to the increase of human population size but also to conservation policies. As a consequence, the number of zoonotic diseases soared with a mean of six new infectious diseases per year, 75% of whom being vectorially transmitted. The way to avoid the human contamination by these emergent diseases is based on the efficient vector control resulting from a deep knowledge of the ecology and the feeding behavior of the different vector species. During our work, we have identified and characterized the ecology of 6 tsetse species (Glossina palpalis palpalis, G. fuscipes fuscipes, G. fusca congolense, G. pallicera newsteadi, G. caliginea and G. tabaniformis) that live in forests and 6 stomoxe species (Stomoxys calcitrans, S. inornatus, S. niger niger, S. niger bilineatus, S. omega omega and S. transvittatus) that live in and around (anthropized places) conservation areas. We have also identified 6 tabanid species (Ancala sp., Atylotus sp., Chrysops sp., Haematopota sp., Tabanus par and T. taeniola). The feeding ecology of the tsetse species have been studied through the determination of host extracted from blood meals in the insect caught with molecular techniques. These hematophagous insects had a diversified diet that was constituted of diverse mammal species but also reptiles and birds. The food intake results mostly from wild fauna (86%) and more rarely from humans (14%). However, in anthropised habitats (villages and research’s camps within the parks), the blood intakes from human origin were important, in particular in the villages (100%), suggesting that without wild fauna the flies shift on human host. In the last part of our work, we tried to identify pathogens in the blood samples extracted from the tsetse species in order to test whether these species could be used as living sampling syringe of the wild fauna. This new proposed non-invasive sampling techniques allowed to detect the DNA of various infectious agents (plasmodiums and trypanosomes), but failed to detect the RNA of viruses (arbovirus) suggesting that this approach could be useful but need to be improved.
218

Contributions aux méthodes de branchement multi-niveaux pour les évènements rares, et applications au trafic aérien / Contributions to multilevel splitting for rare events, and applications to air traffic

Jacquemart, Damien 08 December 2014 (has links)
La thèse porte sur la conception et l'analyse mathématique de méthodes de Monte Carlo fiables et précises pour l'estimation de la (très petite) probabilité qu'un processus de Markov atteigne une région critique de l'espace d'état avant un instant final déterministe. L'idée sous-jacente aux méthodes de branchement multi-niveaux étudiées ici est de mettre en place une suite emboitée de régions intermédiaires de plus en plus critiques, de telle sorte qu'atteindre une région intermédiaire donnée sachant que la région intermédiaire précédente a déjà été atteinte, n'est pas si rare. En pratique, les trajectoires sont propagées, sélectionnées et répliquées dès que la région intermédiaire suivante est atteinte, et il est facile d'estimer avec précision la probabilité de transition entre deux régions intermédiaires successives. Le biais dû à la discrétisation temporelle des trajectoires du processus de Markov est corrigé en utilisant des régions intermédiaires perturbées, comme proposé par Gobet et Menozzi. Une version adaptative consiste à définir automatiquement les régions intermédiaires, à l’aide de quantiles empiriques. Néanmoins, une fois que le seuil a été fixé, il est souvent difficile voire impossible de se rappeler où (dans quel état) et quand (à quel instant) les trajectoires ont dépassé ce seuil pour la première fois, le cas échéant. La contribution de la thèse consiste à utiliser une première population de trajectoires pilotes pour définir le prochain seuil, à utiliser une deuxième population de trajectoires pour estimer la probabilité de dépassement du seuil ainsi fixé, et à itérer ces deux étapes (définition du prochain seuil, et évaluation de la probabilité de transition) jusqu'à ce que la région critique soit finalement atteinte. La convergence de cet algorithme adaptatif à deux étapes est analysée dans le cadre asymptotique d'un grand nombre de trajectoires. Idéalement, les régions intermédiaires doivent êtres définies en terme des variables spatiale et temporelle conjointement (par exemple, comme l'ensemble des états et des temps pour lesquels une fonction scalaire de l’état dépasse un niveau intermédiaire dépendant du temps). Le point de vue alternatif proposé dans la thèse est de conserver des régions intermédiaires simples, définies en terme de la variable spatiale seulement, et de faire en sorte que les trajectoires qui dépassent un seuil précocement sont davantage répliquées que les trajectoires qui dépassent ce même seuil plus tardivement. L'algorithme résultant combine les points de vue de l'échantillonnage pondéré et du branchement multi-niveaux. Sa performance est évaluée dans le cadre asymptotique d'un grand nombre de trajectoires, et en particulier un théorème central limite est obtenu pour l'erreur d'approximation relative. / The thesis deals with the design and mathematical analysis of reliable and accurate Monte Carlo methods in order to estimate the (very small) probability that a Markov process reaches a critical region of the state space before a deterministic final time. The underlying idea behind the multilevel splitting methods studied here is to design an embedded sequence of intermediate more and more critical regions, in such a way that reaching an intermediate region, given that the previous intermediate region has already been reached, is not so rare. In practice, trajectories are propagated, selected and replicated as soon as the next intermediate region is reached, and it is easy to accurately estimate the transition probability between two successive intermediate regions. The bias due to time discretization of the Markov process trajectories is corrected using perturbed intermediate regions as proposed by Gobet and Menozzi. An adaptive version would consist in the automatic design of the intermediate regions, using empirical quantiles. However, it is often difficult if not impossible to remember where (in which state) and when (at which time instant) did each successful trajectory reach the empirically defined intermediate region. The contribution of the thesis consists in using a first population of pilot trajectories to define the next threshold, in using a second population of trajectories to estimate the probability of exceeding this empirically defined threshold, and in iterating these two steps (definition of the next threshold, and evaluation of the transition probability) until the critical region is reached. The convergence of this adaptive two-step algorithm is studied in the asymptotic framework of a large number of trajectories. Ideally, the intermediate regions should be defined in terms of the spatial and temporal variables jointly (for example, as the set of states and times for which a scalar function of the state exceeds a time-dependent threshold). The alternate point of view proposed in the thesis is to keep intermediate regions as simple as possible, defined in terms of the spatial variable only, and to make sure that trajectories that manage to exceed a threshold at an early time instant are more replicated than trajectories that exceed the same threshold at a later time instant. The resulting algorithm combines importance sampling and multilevel splitting. Its preformance is evaluated in the asymptotic framework of a large number of trajectories, and in particular a central limit theorem is obtained for the relative approximation error.
219

Rare event simulation for statistical model checking / Simulation d'événements rares pour le model checking statistique

Jegourel, Cyrille 19 November 2014 (has links)
Dans cette thèse, nous considérons deux problèmes auxquels le model checking statistique doit faire face. Le premier concerne les systèmes hétérogènes qui introduisent complexité et non-déterminisme dans l'analyse. Le second problème est celui des propriétés rares, difficiles à observer et donc à quantifier. Pour le premier point, nous présentons des contributions originales pour le formalisme des systèmes composites dans le langage BIP. Nous en proposons une extension stochastique, SBIP, qui permet le recours à l'abstraction stochastique de composants et d'éliminer le non-déterminisme. Ce double effet a pour avantage de réduire la taille du système initial en le remplaçant par un système dont la sémantique est purement stochastique sur lequel les algorithmes de model checking statistique sont définis. La deuxième partie de cette thèse est consacrée à la vérification de propriétés rares. Nous avons proposé le recours à un algorithme original d'échantillonnage préférentiel pour les modèles dont le comportement est décrit à travers un ensemble de commandes. Nous avons également introduit les méthodes multi-niveaux pour la vérification de propriétés rares et nous avons justifié et mis en place l'utilisation d'un algorithme multi-niveau optimal. Ces deux méthodes poursuivent le même objectif de réduire la variance de l'estimateur et le nombre de simulations. Néanmoins, elles sont fondamentalement différentes, la première attaquant le problème au travers du modèle et la seconde au travers des propriétés. / In this thesis, we consider two problems that statistical model checking must cope. The first problem concerns heterogeneous systems, that naturally introduce complexity and non-determinism into the analysis. The second problem concerns rare properties, difficult to observe, and so to quantify. About the first point, we present original contributions for the formalism of composite systems in BIP language. We propose SBIP, a stochastic extension and define its semantics. SBIP allows the recourse to the stochastic abstraction of components and eliminate the non-determinism. This double effect has the advantage of reducing the size of the initial system by replacing it by a system whose semantics is purely stochastic, a necessary requirement for standard statistical model checking algorithms to be applicable. The second part of this thesis is devoted to the verification of rare properties in statistical model checking. We present a state-of-the-art algorithm for models described by a set of guarded commands. Lastly, we motivate the use of importance splitting for statistical model checking and set up an optimal splitting algorithm. Both methods pursue a common goal to reduce the variance of the estimator and the number of simulations. Nevertheless, they are fundamentally different, the first tackling the problem through the model and the second through the properties.
220

Development of Overhauser-enhanced magnetic resonance imaging in vivo : application to molecular imaging of proteolysis. / Développement de l'imagerie par résonance magnétique rehaussée par l'effet Overhauser in vivo : application à l'imagerie moléculaire de la protéolyse.

Koonjoo, Neha 08 October 2015 (has links)
Ce travail fait l’objet d’une avancée scientifique dans le développement de la technique d’IRM rehaussée par l’effet Overhauser dans la souris à 0,2 T. Cette dernière repose sur le transfert de polarisation des spins électroniques saturés d’un radical libre vers les spins des protons (généralement de l’eau) voisins pour rehausser le signal RMN du proton. Notre équipe a développé cette technique pour détecter une activité protéolytique au travers de deux stratégies. La première partie de la thèse a été de détecter pour la première fois une activité protéolytique in situ dans des souris saines et in vitro sur cellules vivantes. L’efficacité du rehaussement par effet Overhauser repose sur le temps de corrélation des spins des électrons non-appariés. Un radical nitroxyde greffé à l’élastine a été utilisé comme substrat. La protéolyse de ce dernier par des élastases pancréatiques a conduit l’observation en 3D d’un rehaussement du signal RMN de plus de 10 fois dans le tube digestif de souris vivantes. De plus, des développements méthodologiques, tels que l’implémentation de la séquence TrueFISP, le sous-échantillonnage par la méthode “Keyhole”, et la reconstruction des données en 3D ont été faits. La deuxième stratégie repose sur des molécules de nitroxyde ayant l’unique propriété de pouvoir décaler leurs pics de résonance après hydrolyse. Un nitroxyde phosphorylé en position Béta pouvant être détecté à deux fréquences spécifiques différentes avant et après hydrolyse d’un groupement chimique a été synthétisé par des chimistes à Marseille. L’hydrolyse de cette macromolécule a été observée in vivo dans l’estomac de souris saines avec des rehaussements de plus de 400% et imagée en 3D avec une bonne résolution spatio-temporelle. Ainsi, une prochaine étape serait de poursuivre ce travail sur un modèle pathologique et développer cette technique à un champ magnétique plus bas. / This work relates the continuity and advances in the implementation of the Overhauser-enhanced Magnetic Resonance Imaging technique on a 0.2 T scanner. Briefly, OMRI technique is based on polarization transfer of saturated electronic spins from free nitroxide radicals to proton spins of surrounding water molecules in the aim to drastically enhance proton NMR signal. To this technique, our research team has merged specific strategies for proteolytic activity detection. The first strategy relies on a 3D visualization of proteolytic activity happening in intact living cells or in vivo in healthy mice. With an Overhauser switch based upon changes in molecular tumbling time, high Overhauser enhancements of 10-fold were observed in the intestinal tract of mice after that elastolytic activity of our probe: the nitroxide-labeled elastin macromolecule took place. In addition, MRI developments - TrueFISP sequence implementation, undersampling Keyhole method and data reconstruction were carried out for imaging these rapid biological processes. A second exquisite strategy is also described using nitroxides with shifting resonant peaks. Here, a Beta-phosphorylated nitroxide molecule was specifically detected at two distinct frequencies: one for its substrate and the other for its product once hydrolysis took place. This hydrolysis was imaged in 3D in the stomach of living mice with Overhauser enhancements of more than 400% and with a good spatiotemporal resolution. The perspectives of this work lie on a future detection of a pathological proteolytic activity in vivo and eventually and development of very low magnetic field OMRI.

Page generated in 0.1384 seconds