• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • 1
  • 1
  • Tagged with
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Identification of Function Points in Software Specifications Using Natural Language Processing / Identification des points de fonction dans les spécifications logicielles à l'aide du traitement automatique des langues

Asadullah, Munshi 28 September 2015 (has links)
La nécessité d'estimer la taille d’un logiciel pour pouvoir en estimer le coût et l’effort nécessaire à son développement est une conséquence de l'utilisation croissante des logiciels dans presque toutes les activités humaines. De plus, la nature compétitive de l’industrie du développement logiciel rend courante l’utilisation d’estimations précises de leur taille, au plus tôt dans le processus de développement. Traditionnellement, l’estimation de la taille des logiciels était accomplie a posteriori à partir de diverses mesures appliquées au code source. Cependant, avec la prise de conscience, par la communauté de l’ingénierie logicielle, que l’estimation de la taille du code est une donnée cruciale pour la maîtrise du développement et des coûts, l’estimation anticipée de la taille des logiciels est devenue une préoccupation répandue. Une fois le code écrit, l’estimation de sa taille et de son coût permettent d'effectuer des études contrastives et éventuellement de contrôler la productivité. D’autre part, les bénéfices apportés par l'estimation de la taille sont d'autant plus grands que cette estimation est effectuée tôt pendant le développement. En outre, si l’estimation de la taille peut être effectuée périodiquement au fur et à mesure de la progression de la conception et du développement, elle peut fournir des informations précieuses aux gestionnaires du projet pour suivre au mieux la progression du développement et affiner en conséquence l'allocation des ressources. Notre recherche se positionne autour des mesures d’estimation de la taille fonctionnelle, couramment appelées Analyse des Points de Fonctions, qui permettent d’estimer la taille d’un logiciel à partir des fonctionnalités qu’il doit fournir à l’utilisateur final, exprimées uniquement selon son point de vue, en excluant en particulier toute considération propre au développement. Un problème significatif de l'utilisation des points de fonction est le besoin d'avoir recours à des experts humains pour effectuer la quotation selon un ensemble de règles de comptage. Le processus d'estimation représente donc une charge de travail conséquente et un coût important. D'autre part, le fait que les règles de comptage des points de fonction impliquent nécessairement une part d'interprétation humaine introduit un facteur d'imprécision dans les estimations et rend plus difficile la reproductibilité des mesures. Actuellement, le processus d'estimation est entièrement manuel et contraint les experts humains à lire en détails l'intégralité des spécifications, une tâche longue et fastidieuse. Nous proposons de fournir aux experts humains une aide automatique dans le processus d'estimation, en identifiant dans le texte des spécifications, les endroits les plus à même de contenir des points de fonction. Cette aide automatique devrait permettre une réduction significative du temps de lecture et de réduire le coût de l'estimation, sans perte de précision. Enfin, l’identification non ambiguë des points de fonction permettra de faciliter et d'améliorer la reproductibilité des mesures. À notre connaissance, les travaux présentés dans cette thèse sont les premiers à se baser uniquement sur l’analyse du contenu textuel des spécifications, applicable dès la mise à disposition des spécifications préliminaires et en se basant sur une approche générique reposant sur des pratiques établies d'analyse automatique du langage naturel. / The inevitable emergence of the necessity to estimate the size of a software thus estimating the probable cost and effort is a direct outcome of increasing need of complex and large software in almost every conceivable situation. Furthermore, due to the competitive nature of the software development industry, the increasing reliance on accurate size estimation at early stages of software development becoming a commonplace practice. Traditionally, estimation of software was performed a posteriori from the resultant source code and several metrics were in practice for the task. However, along with the understanding of the importance of code size estimation in the software engineering community, the realization of early stage software size estimation, became a mainstream concern. Once the code has been written, size and cost estimation primarily provides contrastive study and possibly productivity monitoring. On the other hand, if size estimation can be performed at an early development stage (the earlier the better), the benefits are virtually endless. The most important goals of the financial and management aspect of software development namely development cost and effort estimation can be performed even before the first line of code is being conceived. Furthermore, if size estimation can be performed periodically as the design and development progresses, it can provide valuable information to project managers in terms of progress, resource allocation and expectation management. This research focuses on functional size estimation metrics commonly known as Function Point Analysis (FPA) that estimates the size of a software in terms of the functionalities it is expected to deliver from a user’s point of view. One significant problem with FPA is the requirement of human counters, who need to follow a set of standard counting rules, making the process labour and cost intensive (the process is called Function Point Counting and the professional, either analysts or counters). Moreover, these rules, in many occasion, are open to interpretation, thus they often produce inconsistent counts. Furthermore, the process is entirely manual and requires Function Point (FP) counters to read large specification documents, making it a rather slow process. Some level of automation in the process can make a significant difference in the current counting practice. Automation of the process of identifying the FPs in a document accurately, will at least reduce the reading requirement of the counters, making the process faster and thus shall significantly reduce the cost. Moreover, consistent identification of FPs will allow the production of consistent raw function point counts. To the best of our knowledge, the works presented in this thesis is an unique attempt to analyse specification documents from early stages of the software development, using a generic approach adapted from well established Natural Language Processing (NLP) practices.
2

Verfahren zur Punktidentifizierung bei der Qualitätskontrolle im Maschinenbau unter Verwendung von Polarmesssystemen

Ullrich, Robin 14 November 2017 (has links) (PDF)
In der heutigen Zeit wird die Qualitätssicherung von großen Produktionsgütern des Maschinen und Anlagenbaus vornehmlich durch flexibel einsetzbare Industrietachymeter oder Lasertracker vollzogen. Die vermessungstechnische Erfassung der qualitätsrelevanten Daten ist dabei in enge Prozessketten der Produktion eingebettet. Aufgrund dessen sind die Messabläufe meist softwareseitig gesteuert und gewährleisten eine vollständige und zeiteffiziente Erfassung aller Messpunkte. Damit die korrekte Überführung der Instrumentendaten in das Bezugssystem des Produkts sichergestellt werden kann, muss bei den Messungen ein besonderes Augenmerk auf die fehlerfreie Erfassung der Bezugs- und Verknüpfungspunkte gelegt werden. Im Rahmen der vorliegenden Arbeit wurden daher Identifizierungsverfahren erarbeitet, welche insbesondere für regelmäßige Bezugs- oder Verknüpfungspunktverteilungen zur sicheren Koordinatentransformation beitragen. Inhaltlich wird zwischen direkten und indirekten Identifizierungsstrategien unterschieden. Während die direkten Verfahren in erster Linie durch die Auswertung von Signalintensitäten eines Tachymeters gekennzeichnet sind, machen sich indirekte Verfahren zusätzliche Distanzdaten eines Funksystems zunutze. Speziell für die Anforderung der Verknüpfungspunktmessung vervollständigen punktidentifizierende Reflektorhalterungen das Anwendungsspektrum. Bei der direkten Identifizierungsvariante wurde das Konzept photogrammetrischer Zielzeichencodierungen aufgegriffen. Die Codierung der Zielmarke wird für tachymetrische Messungen durch verschieden stark reflektierende Zielmarkenbereiche erreicht, welche anhand der gemessenen Signalintensitäten voneinander trennbar sind. Mithilfe der empirisch ermittelten Instrumentenparameter zur Laserspotgröße und Intensitätsmessrate sowie Betrachtungen hinsichtlich minimaler Winkelgeschwindigkeiten wurde die Codeerfassung und -auswertung softwareseitig automatisiert. Die Validierung der Verfahren wurde mit einem Industrietachymeter Leica TDRA6000 für ring und sektorförmig codierte Zielmarken durchgeführt. Die Basis des indirekten Identifizierungsverfahrens ist die Kombination von Tachymeter- und Funkdaten. Der mobile Knoten eines Funksystems wurde dazu direkt am Tragegriff des Tachymeters angebracht und durch Bogenschnittverfahren im Bezugssystem positioniert. Angesichts der Vorinformation zur Mobilknotenposition wird die Identifizierung von tachymetrisch erfassten Bezugspunkten ermöglicht. Die Auswahl des Bezugspunkts wird aufgrund einer Kandidatenliste vollzogen, die in mehreren Filterstufen bis zum Verbleib eines einzigen Kandidaten reduziert wird. Neben definierten Distanzkriterien führen vor allem die Ergebnisse kandidatenbezogener Ausgleichungen mit Restriktionen zwischen den Unbekannten zur Identifizierung des Bezugspunkts. Das Konzept der funkgestützten Identifizierung wurde anhand einer Versuchsfeldanwendung verifiziert, wobei die Robustheit der Datenanalyse besonders durch die örtlichen Gegebenheiten des Maschinenbaus gefordert wird. Am Beispiel der Qualitätssicherung schienengebundener Fahrzeuge wurde zudem veranschaulicht, wie die Anwendung der direkten und indirekten Identifizierungsverfahren innerhalb eines strukturierten Messablaufes zur zeiteffizienten und sicheren Qualitätskontrolle beitragen kann.
3

Verfahren zur Punktidentifizierung bei der Qualitätskontrolle im Maschinenbau unter Verwendung von Polarmesssystemen

Ullrich, Robin 16 October 2017 (has links)
In der heutigen Zeit wird die Qualitätssicherung von großen Produktionsgütern des Maschinen und Anlagenbaus vornehmlich durch flexibel einsetzbare Industrietachymeter oder Lasertracker vollzogen. Die vermessungstechnische Erfassung der qualitätsrelevanten Daten ist dabei in enge Prozessketten der Produktion eingebettet. Aufgrund dessen sind die Messabläufe meist softwareseitig gesteuert und gewährleisten eine vollständige und zeiteffiziente Erfassung aller Messpunkte. Damit die korrekte Überführung der Instrumentendaten in das Bezugssystem des Produkts sichergestellt werden kann, muss bei den Messungen ein besonderes Augenmerk auf die fehlerfreie Erfassung der Bezugs- und Verknüpfungspunkte gelegt werden. Im Rahmen der vorliegenden Arbeit wurden daher Identifizierungsverfahren erarbeitet, welche insbesondere für regelmäßige Bezugs- oder Verknüpfungspunktverteilungen zur sicheren Koordinatentransformation beitragen. Inhaltlich wird zwischen direkten und indirekten Identifizierungsstrategien unterschieden. Während die direkten Verfahren in erster Linie durch die Auswertung von Signalintensitäten eines Tachymeters gekennzeichnet sind, machen sich indirekte Verfahren zusätzliche Distanzdaten eines Funksystems zunutze. Speziell für die Anforderung der Verknüpfungspunktmessung vervollständigen punktidentifizierende Reflektorhalterungen das Anwendungsspektrum. Bei der direkten Identifizierungsvariante wurde das Konzept photogrammetrischer Zielzeichencodierungen aufgegriffen. Die Codierung der Zielmarke wird für tachymetrische Messungen durch verschieden stark reflektierende Zielmarkenbereiche erreicht, welche anhand der gemessenen Signalintensitäten voneinander trennbar sind. Mithilfe der empirisch ermittelten Instrumentenparameter zur Laserspotgröße und Intensitätsmessrate sowie Betrachtungen hinsichtlich minimaler Winkelgeschwindigkeiten wurde die Codeerfassung und -auswertung softwareseitig automatisiert. Die Validierung der Verfahren wurde mit einem Industrietachymeter Leica TDRA6000 für ring und sektorförmig codierte Zielmarken durchgeführt. Die Basis des indirekten Identifizierungsverfahrens ist die Kombination von Tachymeter- und Funkdaten. Der mobile Knoten eines Funksystems wurde dazu direkt am Tragegriff des Tachymeters angebracht und durch Bogenschnittverfahren im Bezugssystem positioniert. Angesichts der Vorinformation zur Mobilknotenposition wird die Identifizierung von tachymetrisch erfassten Bezugspunkten ermöglicht. Die Auswahl des Bezugspunkts wird aufgrund einer Kandidatenliste vollzogen, die in mehreren Filterstufen bis zum Verbleib eines einzigen Kandidaten reduziert wird. Neben definierten Distanzkriterien führen vor allem die Ergebnisse kandidatenbezogener Ausgleichungen mit Restriktionen zwischen den Unbekannten zur Identifizierung des Bezugspunkts. Das Konzept der funkgestützten Identifizierung wurde anhand einer Versuchsfeldanwendung verifiziert, wobei die Robustheit der Datenanalyse besonders durch die örtlichen Gegebenheiten des Maschinenbaus gefordert wird. Am Beispiel der Qualitätssicherung schienengebundener Fahrzeuge wurde zudem veranschaulicht, wie die Anwendung der direkten und indirekten Identifizierungsverfahren innerhalb eines strukturierten Messablaufes zur zeiteffizienten und sicheren Qualitätskontrolle beitragen kann.

Page generated in 0.1435 seconds