• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 9
  • 3
  • Tagged with
  • 81
  • 26
  • 26
  • 16
  • 12
  • 11
  • 11
  • 11
  • 10
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Spécification et vérification de systèmes hybrides

Robbana, Riadh 05 October 1995 (has links) (PDF)
Les systèmes hybrides sont des systèmes qui combinent des composantes discrètes et des composantes continues. Les composantes continues peuvent représenter un environnement physique obéissant à des règles de changement continu, par contre les composantes discrètes peuvent représenter des contrôleurs discrets qui sondent et manipulent les composantes continues en temps réel. Deux approches peuvent être adoptées pour spécifier ces systèmes, la première étant basée sur des automates (hybrides) et utilise des méthodes d'analyse algorithmiques. La seconde est basée sur les logiques et utilise des preuves formelles comme méthodes d'analyse. Dans une première partie de cette thèse nous considérons l'approche basée sur les automates. Nous étudions la décidabilité du problème de la vérification pour certaines classes de systèmes hybrides linéaires. Nous prenons comme modèles des automates hybrides linéaires avec des structures de données discrètes non bornées. Nous exhibons différents cas de tels systèmes dont le problème de la vérification est décidable. Dans une seconde partie nous considérons l'approche basée sur les logiques et plus particulièrement celle basée sur le «Calcul de Durées». Nous étudions les relations existantes entre cette approche et la précédente ; nous montrons comment cette liaison permet de mettre en évidence un fragment important du «Calcul de Durées» pour lequel le problème de la vérification est décidable
12

Système d'acquisition 3D pour le pied humain

Marchessoux, Cédric 12 December 2003 (has links) (PDF)
Ce projet a été réalisé dans le cadre d'une thèse CIFRE avec le laboratoire IRCOM-SIC à Poitiers et l'entreprise GABILLY située à Limoges. Cette société fabrique des chaussures orthopédiques grâce aux mesures sur le pied effectuées manuellement par un podo-orthésiste. La précision est de +/- 4 mm. Cette société souhaite développer un système de métrologie du pied pour obtenir une précision de 1 mm. Les informations fournies par un tel système doivent aussi donner des indications de pression du pied. Ce système dépend des contraintes imposées par la prise de mesure sur le patient, par la difficulté de numériser et modéliser l'objet entier, par le choix du système d'acquisition et de la modélisation. Le système à développer doit être le plus simple possible, entièrement automatique, le moins cher possible et doit être géré par un ordinateur PC standard. Il doit permettre d'extraire à partir du pied humain un nuage de points. Le projet a été envisagé sous un axe vision à l'aide de caméras couleur. Une technique d'étalonnage particulière avec une simple mire plane a été mise en place pour faciliter la prise en main du système. La détection de la mire est effectuée par la transformée de Hough. Le système d'acquisition en trois dimensions pour le pied humain est un système de vision passive. Les méthodes mises en oeuvre doivent permettre de traiter n'importe quel type de pied donc de peau, quelque soit la couleur, la forme ou la texture. Dans un premier temps, une étude sur la peau humaine a permis de choisir un espace de représentation de la couleur et une couleur particulière pour le fond du système. Les images du pied sont segmentées par une méthode spécifique afin d'éliminer tous les pixels n'appartenant pas au pied. La segmentation est effectuée dans l'espace Teinte-Luminance-Saturation et par une opération de dilatation géodésique. Les points de pression sont obtenus par un traitement spécifique de l'histogramme de l'image de la Teinte segmentée. Ensuite, plu-sieurs méthodes de reconstruction 3D ont été mises en place pour extraire un nuage de points 3D appartenant à la surface du pied. La première méthode est une technique de reconstruction par projection et la deuxième est basée sur la stéréovision dont la mise en correspondance des points est faite par corrélation. La modélisation ou reconstruction de surface du nuage de points obtenu n'est pas le premier objectif mais elle permet de valider les méthodes d'extraction de nuages de points, plusieurs méthodes de reconstruction de surfaces ont été expérimentées sur des nuages de points organisés et non organisés. Finalement, deux systèmes d'acquisition ont été développés : 2D et 3D. Le système 2D est inclus dans le système 3D et il permet la fabrication des semelles orthopédiques qui représentent cinquante des cas rencontrés. Les informations extraites sont les contours de la plante du pied, la métrologie et les points de pression. Les fichiers de nuage de points obtenus sont directement exploitables par les logiciels de conception assistée par ordinateur.
13

Étude et réalisation d'un TDC numérique dans le cadre du trigger du GANIL

Boujrad, A. 20 December 2001 (has links) (PDF)
En physique nucléaire, l'interaction faisceau-cible engendre une multitude d'événements qui ne sont pas tous d'intérêt pour le phénomène physique étudié. Il est donc important de disposer d'un système de sélection nommé trigger. Nous avons étudié et réalisé un nouveau trigger adapté aux expériences menées au GANIL. Nous avons présenté un historique des différents triggers utilisés aux GANIL (Grand Accélérateur National d'Ions Lourds) et avons montré la nécessité d'un nouveau trigger modulaire, universel et ouvert. Après une description des différents modes de fonctionnement du nouveau trigger (GANIL Master Trigger, GMT) nous avons décrit les phases de sa conception et de sa réalisation. Le trigger renseigne sur la configuration des détecteurs temporels, or cette information peut être fondamentale dans le cas où la fenêtre d'analyse du trigger couvre plusieurs périodes du faisceau. Nous avons donc proposé une structure de mesure de temps (Time to Digital Converter, TDC) qui permet de lever cette indétermination. Les contraintes de temps mort, d'intégration et de consommation nous ont conduit à proposer une architecture numérique basée sur un compteur associé à une ligne A Retard (LAR). Des calculs simples ont permis de définir la zone de fonctionnement du TDC. Cette zone dépend du rapport cyclique de l'horloge et des retards de la LAR. Des mesures de Non Linéarité Différentielle (NLD) pour des résolutions différentes (1,2,5 et 10 ns) ont permis d'établir les limites de ce système et de mettre en évidence des solutions d'amélioration de ces caractéristiques.
14

Échantillonnage non uniforme appliqué à la numérisation des signaux radio multistandard

Ben romdhane, Manel 07 February 2009 (has links) (PDF)
Cette thèse de Doctorat s'inscrit dans le domaine de la conception de circuits innovants pour la numérisation des signaux radio multistandard. La nouveauté dans ce travail de recherche provient de l'exploration, pour la première fois dans le domaine des systèmes radio, de l'apport de l'utilisation des techniques d'échantillonnage non uniforme (NUS, Non Uniform Sampling). L'innovation de recherche apportée concerne l'établissement de formulations analytiques pour le calcul des métriques d'évaluation des performances de la technique NUS et pour le dimensionnement d'un nouveau récepteur radio multistandard avec un convertisseur analogique numérique (ADC, Analog-to-Digital Converter) contrôlé par une horloge non uniforme. Les résultats de cette étude ont conduit à la synthèse d'un filtre anti-repliement unique pour les standards GSM/UMTS/WiFi et à la diminution la fréquence moyenne d'échantillonnage de l'ADC ce qui a permis de diminuer la consommation de puissance de l'ADC et d'éliminer le circuit du contrôle automatique de gain (AGC). L'étude analytique et la conception niveau système ont été complétées par la proposition d'une architecture numérique originale de génération d'horloge non uniforme permettant de s'affranchir des contraintes et limitations des oscillateurs non uniformes proposés dans la littérature. Ce circuit Pseudorandom Signal Sampler (PSS) a fait l'objet d'une synthèse et d'une validation préliminaire sur FPGA puis la conception d'un circuit VLSI en technologie CMOS numérique 65 nm. Les résultats d'implémentation du PSS ont permis d'obtenir, pour un facteur de quantification temporelle égal à 16, une surface active de 470 (µm)², des fréquences moyennes d'échantillonnage pouvant atteindre 200 MHz basées sur un synthétiseur de fréquence qui offre des fréquences jusqu'à 3.2 GHz et enfin une consommation de puissance de 1.45 à 290.4 µW pour des fréquences d'échantillonnage moyennes allant de 1 MHz à 200 MHz. Une validation expérimentale de l'étage de numérisation proposé a été effectuée grâce à la réalisation d'une plate-forme de test composée du circuit générateur PSS dont la sortie contrôle un ADC auquel est appliqué en entrée un signal sinusoïdal de test et d'un PC pour l'acquisition par FIFO mais aussi pour le traitement des données. Les résultats des tests expérimentaux obtenus ont permis de confirmer les résultats théoriques en termes de diminution de la consommation de l'ADC.
15

Numérisation 3D intelligente d'objets de formes inconnues basée sur des critères de qualité

Mehdi-Souzani, Charyar 30 June 2006 (has links) (PDF)
Cette thèse traite de la numérisation 3D d'objets de formes inconnues par capteur laser plan sans contact. Objectif : accroître la qualité du résultat par la génération de trajectoire intelligente (TI) de numérisation. Les paramètres du positionnement capteur/pièce et la conséquence de leur variation sur la qualité du nuage sont étudiés. Un protocole expérimental d'évaluation du système de numérisation vis à vis du bruit de mesure (fonction de la distance et de l'angle de numérisation) est proposé, complété par des procédures d'évaluation de la justesse, la justesse relative et la fidélité. Il permet l'identification de l'espace admissible pour la génération de la TI. La démarche de génération de la TI débute par une première numérisation de l'objet. La qualification des données 3D obtenues est proposée tirant partie de l'étude précédente. Les zones de qualité insuffisante (bruit et complétude principalement) qui doivent être re numérisées sont identifiées. La nouvelle trajectoire est recalculée de façon à ce que les paramètres définissent un positionnement capteur appartenant à l'espace admissible précédemment établi. La démarche est illustrée par différents exemples.
16

L'industrie des solutions RH en France

Papaix, Yannick 02 1900 (has links) (PDF)
Le flux d'informations RH requis par les entreprises pour remplir leur rôle de coordination dans le cadre du contrat de travail suscite, dans l'environnement technologique, réglementaire, concurrentiel actuel une offre de produits TI spécialisés. Ces produits, que nous qualifions de solutions RH, sont des bundles de progiciels et de services informatiques complémentaires. Cette offre définit une industrie composée de 4 types de firmes nés de l'évolution des modèles d'organisation industrielle apparus au long de l'histoire de l'industrie informatique. Les deux types les plus différents sont d'un côté les éditeurs, qui vivent avant tout de la vente de progiciels, et d'une partie des services qui y sont associés, et de l'autre côté les prestataires de service bureau de GRH, qui eux tirent la majeure partie de leurs revenus de prestations d'externalisation partielle de processus de GRH. À côté de ces deux idéaux-types polaires, nous avons identifié deux types intermédiaires: les SSII éditrices et les SSII non-éditrices. Les phénomènes de verrouillage associés aux TI et la guerre de standard autour des progiciels de gestion intégrés font des éditeurs de ces progiciels les leaders stratégiques de l'industrie des solutions RH. Les stratégies de coopétition des éditeurs, le rôle de barrière à l'entrée dynamique de la réglementation du travail, et les modalités d'innovation du service bureau de GRH nous incitent à prévoir une convergence de l'industrie vers 2 types de firmes: des éditeurs de PGI et des prestataires de services bureau de GRH non éditeurs, entretenant des relations verticales en partenariat.
17

Une approche globale pour la métrologie 3D automatique multi-systèmes

Audfray, Nicolas 17 December 2012 (has links) (PDF)
La métrologie 3D permet la vérification de spécifications géométriques et dimensionnelles sur des pièces mécaniques. Ce contrôle est classiquement réalisé à partir de mesures avec des capteurs à contact montés sur des machines à mesurer tridimensionnelles. Ce type de mesures offre une très grande qualité de données acquises mais requiert un temps d'exécution relativement long. Les présents travaux s'attachent donc à développer les mesures optiques dans le cadre de la métrologie 3D qui, avec une qualité diminuée, permettent une exécution beaucoup plus rapide. L'absence de norme concernant ces systèmes de mesure a pour conséquence leur utilisation rare dans le cadre de la métrologie. En effet, le choix d'un système est généralement réalisé à partir de spécifications sur sa qualité. Nous proposons donc une méthode de qualification des systèmes de mesure optiques permettant de quantifier la qualité des données qu'ils fournissent. Les données ainsi qualifiées sont stockées dans une base de données. Un processus global d'inspection 3D multi-systèmes est mis en place, permettant le choix du système de numérisation le mieux adapté (à contact ou sans contact) en termes de qualité et de coût de numérisation, à partir des données qualifiées de la base de données. Lors de l'utilisation de systèmes de mesure optiques, la baisse de qualité est essentiellement due au bruit de numérisation inhérent à ce type de systèmes. Un filtre permettant d'éliminer ce bruit, tout en gardant le défaut de forme de la surface, est mis en place dans le processus afin de rendre possible la vérification de spécifications avec des intervalles de tolérance faibles à l'aide de systèmes de mesure optiques.
18

Représentation et détection des images et des surfaces déformables

Barolet, Justine C. 08 1900 (has links)
La représentation d'une surface, son lissage et son utilisation pour l'identification, la comparaison, la classification, et l'étude des variations de volume, de courbure ou de topologie sont omniprésentes dans l'aire de la numérisation. Parmi les méthodes mathématiques, nous avons retenu les transformations difféomorphiques d'un pattern de référence. Il y a un grand intérêt théorique et numérique à approcher un difféomorphisme arbitraire par des difféomorphismes engendrés par des champs de vitesses. Sur le plan théorique la question est : "est-ce que le sous-groupe de difféomorphismes engendrés par des champs de vitesses est dense dans le groupe plus large de Micheletti pour la métrique de Courant ?" Malgré quelques progrès réalisés ici, cette question demeure ouverte. Les pistes empruntées ont alors convergé vers le sous-groupe de Azencott et de Trouvé et sa métrique dans le cadre de l'imagerie. Elle correspond à une notion de géodésique entre deux difféomorphismes dans leur sous-groupe. L'optimisation est utilisée pour obtenir un système d'équations état adjoint caractérisant la solution optimale du problème d'identification à partir des observations. Cette approche est adaptée à l'identification de surfaces obtenues par un numériseur tel que, par exemple, le scan d'un visage. Ce problème est beaucoup plus difficile que celui d'imagerie. On doit alors introduire un système de référence courbe et une surface à facettes pour les calculs. On donne la formulation du problème d'identification et du calcul du changement de volume par rapport à un scan de référence. / The representation of a surface, its smoothing, and its use in identification, comparison, classification, and in the study of changes in volume, curvature, and topology are ubiquitous in the area of the scanning. Among mathematical methods, we have retained the diffeomorphisms of a reference pattern. There is a considerable interest, both theoretical and numerical, in approximating an arbitrary diffeomorphism by diffeomorphisms generated by velocity fields. On the theoretical front the question is : "is the subgroup of diffeomorphisms generated by velocity fields dense in Micheletti's larger group endowed with the Courant metric ?" In spite of some progress, the question remains open. The tracks followed have converged towards the subgroup of Lipschitzian diffeomorphisms of Azencott and Trouvé and its metric developed for imaging. It corresponds to a notion of geodesic between two diffeomorphisms in their subgroup. Optimization is then used to obtain a system of equations of the state adjoint state type characterizing the optimal solution of the identification problem from observations. This approach is adapted to the identification of surfaces obtained from a scanner such as, for instance, the scan of a face. This problem is much more difficult than the one of imaging. We introduce a curvilinear reference system and a faceted surface for numerical computations. We provide a formulation of the identification problem and of the computation of the change of volume from a reference scan.
19

La conduite du changement et son impact sur la transformation numérique des organisations

Slioui, El Mahjoub January 2020 (has links) (PDF)
No description available.
20

Les revues littéraires et artistiques (1880-1900). Questions de patrimonialisation et de numérisation / Literature and art reviews (1880-1900). Questions of cultural heritage and digitization

Leu, Philipp 05 November 2016 (has links)
Travailler aujourd’hui sur un fonds numérique de revues c’est être confronté à des artefacts. Numérisées en noir et blanc, débarrassées de leurs couvertures, des pages vierges, des encarts, des publicités, des bulletins et hors-texte divers, les revues numérisées offrent souvent une physionomie très différente des documents originaux, surtout quand les fichiers numériques ont été produits à partir de reproductions antérieures (réimpressions ou microformes). Le présent travail tourne autour d’une question de méthode : quels sont les principes à retenir pour la numérisation des revues littéraires et artistiques de la fin du xixe siècle afin que l’accord subtil entre forme et contenu ne soit pas rompu lorsque les supports sont dématérialisés ?La revue littéraire et artistique s’inscrit dans la communication littéraire au croisement de traditions éditoriales hybrides. Sa matrice oscille entre le journal, le livre, l’album d’art et la revue, mobilisant et exploitant les caractéristiques de ces quatre référents. Ces référents sont ici représentés à travers un corpus de quatre périodiques : les revues françaises La Plume (1889–1914) et L’Épreuve (1894–1895), le trimestriel britannique The Yellow Book (1894–1897), et le périodique berlinois Pan (1895–1900). Ces publications déclinent l’objet revue dans trois aires culturelles, et permettent d’en explorer les spécificités ainsi que les enjeux économiques liés à son essor au sein des sociabilités littéraires et artistiques et au contact des doctrines esthétiques. Cette étude de cas débouche sur une analyse de la matérialité, de l’économie et des pratiques revuistes dans la période fin-de-siècle qui amène à s’interroger sur les implications culturelles, historiques et sociologiques de ces objets.Fragilisée par l’usage fréquent, la revue, lieu d’innovations graphiques et textuelles, est confrontée à la nécessité de la dématérialisation pour rester accessible à la recherche. L’examen de six bibliothèques numériques (Gallica, la Bibliothèque numérique de l’Université de Heidelberg, Internet Archive, The Yellow Nineties Online, le Blue Mountain Project et Jugend Wochenschrift) souligne que le numérique n’est en aucune manière une opération neutre et doit être constamment accompagné d’une approche scientifique de l’objet ouvrant à des recommandations et à de « bonnes pratiques ».Outre la question technique, toujours capitale, l’accent est mis dans cette thèse sur les procédures de numérisation en vue à la fois d’une restitution optimale de l’original et de la possibilité de disposer d’interfaces et de fonctionnalités dotant le chercheur de nouvelles approches heuristiques, permises par les nouvelles technologies, au service du patrimoine. / To work on digitized reviews today means essentially to be confronted with artefacts. Digitized in black and white, stripped of their covers, of blank pages, of inserts, advertisements, bulletins and other supplements, digital reproductions of reviews often differ greatly from the originals, especially when the electronic files have been based on previous reproductions (microforms or reprints). Our work evolves around a question of method: what principles should be followed in digitizing literature and art reviews from the end of the 19th century, in order to preserve the subtle harmony between form and content when the medium is no longer hard copy?Literature and art reviews participate in literary communication at the intersection of hybrid editorial traditions. Their matrix oscillates between newspapers, books, art albums and reviews, utilising the characteristics of these four media. We have chosen four periodicals to represent them: the French reviews La Plume (1889–1914) and L’Épreuve (1894–1895), the British quarterly The Yellow Book (1894–1897), and the Berlin periodical Pan (1895–1900). These publications articulate the different characteristics of reviews in three cultural contexts, allowing us to explore their specificities as well as the financial aspects linked to their development, in close interaction with literary and artistic social life and aesthetic doctrines. As case studies, these bear on an analysis of the materiality, of the financial and editorial practices of late 19th century reviews while questioning the historical, cultural and sociological implications of these objects.Degraded and fragile through years of use, these reviews, catalysts of textual and graphic innovation, are in urgent need of dematerialisation so as to remain accessible for future research. Close examination of six digital libraries (Gallica, the digital library of Heidelberg University, Internet Archive, The Yellow Nineties Online, the Blue Mountain Project, and Jugend Wochenschrift) underlines that digitization is in no way a neutral operation and must constantly be accompanied by scientific validation with a view to developing recommendations and "good practices".Besides technical questions of primary importance, this thesis’ focus is on digitization procedures, aiming at both optimal restitution of the originals and functional interfaces that provide the researcher with new heuristic tools, through innovative technologies, in the service of our cultural heritage.

Page generated in 0.0956 seconds