威尼斯赌博游戏_威尼斯赌博app-【官网】

图片

威尼斯赌博游戏_威尼斯赌博app-【官网】

图片

Abgeschlossene Abschlussarbeiten

Folgend finden Sie eine Liste bereits abgeschlossener Bachelor-, Master und Diplomarbeiten.

2024

Prompt Engineering im Rahmen einer Automatisierten Beantwortung von Kundenanfragen - Konzept und Prototypische Umsetzung

Bachelorarbeit, Mai 2024

Die Bachelorarbeit impliziert die Entwicklung eines Prototyps zum ersten Testen und Evaluieren von LLM-Integration in einem mittelst?ndischen Unternehmen anhand der OpenAI API und stellt eine?sinnvolle Kooperation von Forschung und Wirtschaft dar. In Zusammenarbeit mit der exali AG soll die Performanz von LLMs im Kontext der Beantwortung von Kundenanfragen in der IT-Versicherungsbranche bewertet werden. Das Unternehmen, unterstützt die Arbeit mit Daten, Dom?nenwissen, sowie einem Team an unterschiedlichen Experten für Konzeption und Evaluation des Prototyps. In diesem Kontext wurde eine methodische Struktur entwickelt, geplant und umgesetzt, wie mit Herausforderungen wie Datenknappheit (synthetische LLM-basierte Generation), wirtschaftlichen Anforderungen (Pricing Model, Datensicherheit, …)? und Art der Evaluation (technisch und menschlich) umgegange werden kann, um eine Prognose für das Unternehmen bezüglich Sinnhaftigkeit dieses Anwendungsszenarios zu treffen.?

?

ResearchConnect - A Smart Web-Application to Enhance Interdisciplinary Work through Intelligent Matching of Scientists based on their Disciplines

Bachelorarbeit, Januar 2024

Die Bachelorarbeit behandelt die interessante Fragestellung, wie man interdisziplin?res Arbeiten technisch unterstützen kann. Hierzu wird zun?chst kurz die Relevanz interdisziplin?rer Arbeit in der Forschung thematisiert, sowie auf aktuelle Herausforderungen eingegangen. Am Beispiel der Website der Universit?t Augsburg wurde ein Prototyp in Form einer intelligenten Webanwendung entwickelt: ResearchConnect. Diese erm?glicht es, basierend auf einer intelligenten semantischen Suche anhand der Eingabe eines bspw. Forschungsgebiets weitere Forschende zu finden, die sich mit ?hnlichen Themen besch?ftigen, wobei die Informationen von den ?ffentlichen Seiten der Mitarbeiterinnen und Mitarbeiter gescraped werden.

?

?

?

?

2023

Evaluation von XAI-Algorithmen mithilfe Szenariobasierter Fokusgruppen

Masterarbeit, November 2023

Diese Masterarabeit ist in einem interdisziplin?ren Bereich angesiedelt und zielt darauf ab, die Eignung von szenariobasierten Fokusgruppen, einer Methodik aus den Sozialwissenschaften, zur Evaluation von Techniken im Bereich der Erkl?rbaren Künstlichen Intelligenz (Explainable AI, XAI) zu untersuchen. Vor dem Hintergrund der zunehmenden Komplexit?t von Systemen der Künstlichen Intelligenz (KI) und der damit verbundenen Undurchsichtigkeit der Ausgaben, die von den eingesetzten Modellen erzeugt werden, stellt sich die Frage nach Bewertungsans?tzen für XAI-Methoden, insbesondere aus der Perspektive verschiedener Stakeholder. Trotz der Entwicklung zahlreicher XAI-Methoden fehlen bisher umfassende Evaluationsm?glichkeiten für solche Techniken, speziell aus der Sicht der Nutzenden. Dabei wird in der Mastarbeit die Verknüpfung von sozialwissenschaftlichen Forschungsmethoden mit der Bewertung von XAI-Techniken als m?glicher L?sungsansatz betrachtet.

Die Anwendung von szenariobasierten Fokusgruppen, die bereits in verschiedenen Disziplinen etabliert sind, auf das Feld der XAI bildet den Kern dieser Arbeit. Hierzu wurden zwei Fokusgruppen mit unterschiedlichen Stakeholdergruppen – Studierende der Humanmedizin und KI-Entwickler:innen – durchgeführt. Den Teilnehmenden wurde ein Szenario pr?sentiert, welches die hypothetische Anwendung eines KI-gestützten 12-Kanal-EKGs zur Diagnose von verschiedenen Herzrhythmen beschreibt. Das Grundszenario wurde in zwei Eskalationsstufen erg?nzt, indem jeweils eine ansteigende Menge an Informationen und Erkl?rungen der KI an die Teilnehmenden gegeben wurde. Die Fokusgruppen hatten die Aufgabe, diese Situationen zu diskutieren und zu bewerten. Die zentralen Analysepunkte der Gespr?che umfassten dabei die Pr?sentation der bereitgestellten Informationen, die Erkl?rbarkeit, das Vertrauen in die KI sowie vorgeschlagene Verbesserungen. Eine Literaturrecherche zum aktuellen Stand der Forschung auf dem Gebiet der Evaluationsm?glichkeiten von XAI-Methoden rundet die Masterarbeit ab.

2022

Zusammenführung Multi-modaler Datenquellen in einer Anwendung zur Analyse des ?sophagus für die Diagnoseunterstützung von Achalasie

Masterarbeit, November 2022

Die Masterarbeit wurde in Kooperation mit dem Uniklinikum Augsburg (UKA) erstellt, um ?rztinnen bei der Diagnose von Achalasie zu unterstützen. Hierfür wurden verschiedene Daten mehrerer Patientinnen bereitgestellt. Aktuell müssen ?rzte selbst die Ergebnisse verschiedener Datenquellen für die m?glichst pr?zise Diagnose der Art der Krankheit und der dadurch bedingten Behandlungsstrategie zusammenführen. Um diesen Prozess zu unterstützen, wurde eine Software zur Erstellung einer m?glichst realit?tsgetreuen 3D-Rekonstruktion des ?sophagus entwickelt, welche die gemessenen Manometrie-Druckwerte als Farbverlauf für verschiedene Messzeitpunkte inkludiert.

Das entwickelte Verfahren integriert die Nutzerin direkt bei der Dateneingabe, wobei die Manometrie-Messungen, ein Breischluck-R?ntgenbild und Bilder aus einer Endoskopie-Aufnahme zur Rekonstruktion verwendet werden. Für die Zusammenführung werden noch weitere Angaben ben?tigt, wobei das R?ntgenbild, welches den Verlauf des ?sophagus darstellt, als Grundlage dient. Um die Manometrie Messungen zu mappen, werden am besten die bekannten Positionen des oberen und unteren ?sophagus Sphinkters eingetragen, die Messabst?nde des Ger?ts sind bekannt. Für die Zuordnung des Durchmessers aus den Endoskopie Aufnahmen, wird der Messstartpunkt markiert. Auch muss zu jedem Bild die jeweilige H?he bekannt sein. Um den Durchmesser zu extrahieren, wurden automatisierte Verfahren zur Extraktion aus den Endoskopie Aufnahmen in die finale Software integriert. Diese Extraktion gelingt allerdings aufgrund der verschiedenen Lichtverh?ltnisse nicht immer gut, weshalb die Software dem User die Funktionalit?t zur manuellen Nachbereitung des ausgew?hlten Durchmessers eines jeden Bildes bereitstellt. Dasselbe trifft auch auf die Extraktion des Verlaufs aus dem R?ntgenbild zu. Um eine optimale Usability, die den Bedürfnissen der klinischen Nutzerin entspricht, zu erreichen, wurde auf eine intensive Zusammenarbeit und Feedback bei der Softwareentwicklung viel Wert gelegt.

?

Modell-Erkl?rungen als Quality-Gate in Machine Learning Pipelines

Masterarbeit, September 2022

Diese Masterarbeit ist im Bereich des interpretierbaren Maschinellen Lernens (ML) angesiedelt. Werden Modelle mithilfe von ML trainiert, ist bei komplexen Modellarten wie den Neuronalen Netzen das Ergebnis, zu welchen diese Algorithmen kommen, sehr schwer oder gar nicht erkl?rbar. Hier entsteht gegenw?rtig das schnell wachsende Forschungsfeld der erkl?rbaren Künstlichen Intelligenz (KI). Eine Teildisziplin darin umfasst Methoden, die zur Interpretation der Modell-Ausgaben genutzt werden k?nnen. Dabei lassen sich vieler dieser Techniken auf bereits trainierte Modelle anwenden, um so die Funktionsweise des Algorithmus post-hoc n?her zu untersuchen. Gleichzeitig entstehen aktuell Prinzipien im Bereich des operativen ML (MLOps) um den Lebenszyklus von KI-Anwendungen zu beschleunigen und Schritte des Entwicklungsprozesses zu automatisieren.?Die Masterarbeit untersucht die Schnittmenge dieser Disziplinen. Hierfür wurde ein eine ML-Pipeline als Forschungsgegenstand herangezogen, worin ein Neuronales Netz zur Objekterkennung in Bilddaten trainiert wurde. Um die Ausgabe des Neuronalen Netzes in eine erkl?rbare Form zu überführen, wurde die Interpretations-Methode LIME verwendet. Anschlie?end wurde ein Konzept entwickelt und implementiert, wie die Ausgaben des Interpretations-Algorithmus in der Validierungsphase der ML-Pipeline herangezogen werden kann, um auf Basis der Ergebnisse eine m?gliche automatisierte Freigabeentscheidung für das ML-Modell treffen zu k?nnen. ?Die Literaturrecherche zum aktuellen Stand der Forschung in den relevanten Bereichen der erkl?rbaren KI und MLOps rundet die Masterarbeit ab.

?

Interpretierbares Maschinelles Lernen mit EKG-Daten

Bachelorarbeit, Juli 2022

Das Elektrokardiogramm (EKG) verk?rpert eine zentrale diagnostische Methode in der 威尼斯赌博游戏_威尼斯赌博app-【官网】izin zur Identifizierung kardialer Pathologien bei Patienten. Angesichts der essenziellen Bedeutung der Detektion von Herzerkrankungen mittels EKG in klinischen Kontexten, er?ffnet die Automatisierung dieser Erkennungsprozesse durch maschinelles Lernen neue Perspektiven. Forschungsergebnisse haben gezeigt, dass der Einsatz von Deep Neural Networks (DNN) in bestimmten F?llen eine überlegene Genauigkeit bei der Diagnose von Herzerkrankungen erm?glicht, verglichen mit der Bewertung durch Fachkardiologen. Vor diesem Hintergrund fokussiert diese Bachelorarbeit auf die Pr?sentation und Evaluierung diverser neuronaler Netzwerke, welche für die Klassifikation von EKG-Daten konzipiert wurden. Eine herausfordernde Problematik bei der Anwendung neuronaler Netzwerke besteht darin, dass diese Systeme typischerweise keine direkten Erkl?rungen für ihre Diagnosen bieten. Um diesem Mangel zu begegnen, werden in dieser Arbeit verschiedene Ans?tze zur Erh?hung der Erkl?rbarkeit neuronaler Netzwerke untersucht, mit einem speziellen Fokus auf die Methodik der Local Interpretable Model-agnostic Explanations (LIME). Es folgt die Darstellung der Implementierung von LIME für ein neuronales Netz, welches Signaldaten verarbeitet, inklusive einer Reihe von Experimenten, die diese Methode evaluieren und mit alternativen Ans?tzen vergleichen. Weiterhin wird die Anwendung des Algorithmus Randomized Input Sampling for Explanation of Black-box Models (RISE) er?rtert. Abschlie?end liefert die Arbeit einen Ausblick auf die zukünftige Rolle von DNNs im medizinischen Sektor und betont die zunehmende Relevanz erkl?rbarer Modelle in diesem Zusammenhang.

2021

Evaluation von KI-Erkl?rungen im Kontext von Active Learning

Masterarbeit, November 2021

Der fortschreitende Einzug der KI Technologien in unserer Gesellschaft hat die o?ffentliche Diskussion - durchaus kontrovers - seit einigen Jahren erreicht. Dabei za?hlt zu den vorrangigen Themen u.a. die allgemeine Anwendbarkeit von KI Modellen, v.a. bezu?glich ihrer Vertrauenswu?rdigkeit. Im Forschungsgebiet der erkla?rbaren KI (XAI) wird gerade in verantwortungslastigen Bereichen wie dem Gesundheitssystem die In- terpretierbarkeit von ML Modellen zunehmend unverzichtbar. Da sachkundige Kom- mentatoren (z.B. A?rzte) i.d.R. u?ber wenig Zeit verfu?gen, sind korrekt annotierte Daten rar. Eine Methodik, die diesem Problem begegnet ist aktives Lernen (AL), bei welcher das Modell kontinierulich trainiert und sukzessiv neue Annotationen angefragt werden. Durch die Analyse von Modellerkla?rungen in einem AL Kontext leistet diese Masterarbeit einen Beitrag zur aktuellen XAI Forschung. Das doma?nen-spezifische Erkla?rsystem wird durch ein speziell dafu?r entwickeltes Framework bewertet. Dies geschieht durch die Analyse der, fu?r die Vorhersagen einer ML-basierten Klassifikationsaufgabe fu?r Hautkrebsbilder, generierten Erkla?rungen, mit dem Ziel, wu?nschenswerte Anforderungen an eine gute Erkla?rung zu extrahieren. Das so gewonnene Wissen u?ber die innere Funktionsweise des ML Modells kann zu einer Verbesserung der gesamten ML Pipeline zur Laufzeit eines AL-Projekts fu?hren.

?

Bias-Erkennung mittels Methoden des interpretierbaren Maschinellen Lernens

Bachelorarbeit, September 2021

Wa?hrend Machine Learning (ML) Systeme im menschlichen Leben immer mehr an Bedeutung gewinnen, wird das Bewusstsein, dass diese Sytseme einen Bias haben ko?nnen immer sta?rker. Vor diesem Hintergrund gewinnt das Forschungsfeld des interpretierbaren maschinellen Lernens (IML) an Bedeutung, da es die Nachvollziehbarkeit der Entscheidungsprozesse in ML-Modellen verbessert. Diese Bachelorarbeit verfolgt das Ziel, die Anwendbarkeit von IML-Methoden für die Detektion von Bias in ML-Modellen aufzuzeigen.?Zur Bewertung der F?higkeit von IML-Methoden, Datenverzerrungen zu identifizieren, wurden experimentelle Untersuchungen durchgeführt. Hierbei wurde in den Datensatz gezielt ein Bias eingeführt. Zur Detektion dieses Bias kamen die Methoden Local Interpretable Model-agnostic Explanations (LIME) und Randomized Input Sampling for Explanation of Black-box Models (RISE) zum Einsatz.?Die Analyseergebnisse indizieren, dass RISE effektiv in der Lage ist, den eingeführten Bias zu identifizieren, w?hrend die Ergebnisse mittels LIME nicht als signifikant erachtet werden k?nnen. Diese Befunde suggerieren, dass IML-Methoden grunds?tzlich zur Erkennung von Verzerrungen in ML-Modellen geeignet sind. Gleichzeitig unterstreichen sie die Notwendigkeit weiterführender Forschungen im Bereich der Bias-Detektion mittels IML-Methoden, um die Effektivit?t und Pr?zision dieser Techniken weiter zu erh?hen.

?

Reduktion des Annotationsaufwands - Ein Vergleich von Active Learning Frameworks

Bachelorarbeit, Juni 2021

Diese Bachelorarbeit ist im Bereich der Softwareentwicklung mit Machine Learning (ML) angesiedelt. Zum überwachten Trainieren von ML-Modellen ist i.d.R. ein gro?er Satz an Daten, bestehend aus den Beispielen mit dazugeh?rigen Annotationen notwendig. Nachdem die Annotation von Daten sehr zeit- und kostenintensiv ist, wird versucht, mit Techniken wie Active Learning diesen Prozess effizienter zu gestalten. Das gro?e Potential bei diesem Verfahren kombiniert mit den Besonderheiten im medizinischen Kontext motiviert die Entwicklung eines umfassenden Active Learning Frameworks, welches sich für die Anwendung mit unausgeglichenen Datens?tzen eignet. In dieser Bachelorarbeit werden dabei drei existierende Open-Source Frameworks für Active Learning dahingehend untersucht, ob und inwieweit sie sich zur Adaption für eine Eigenimplementierung einigen. Um eine Bewertung vorzunehmen, wurden Kriterien definiert und anhand der Anwendung der Frameworks analysiert. Die praktische Umsetzung umfasst sowohl die Implementierung einer eigenen Query Strategie sowie ein Performance-Test unterschiedlicher Machine Learning Modelle für die betrachteten Active Learning -Frameworks. Eine Recherche zu weiteren Entscheidungsfaktoren rundet die Untersuchung ab.

?

?

Herausforderungen?bei der Implementierung von sicheren APIs?in einer vordefinierten Netzwerk-Serverinfrastruktur?unter Berücksichtigung?interner und externer Aspekte

Bachelorarbeit, Mai 2021

APIs gewinnen bei Unternehmen immer mehr an Bedeutung, weil sie vermehrt einen?wesentlichen Anteil zur Wertsch?pfung beitragen. Das hat zur Folge, dass in zunehmendem Ma? APIs entwickelt und für Kunden bereitgestellt werden. Mit dem rasanten Anstieg der Anzahl der APIs, werden sie zu immer beliebteren Angriffszielen und müssen dementsprechend vor Angreifern geschützt und Sicherheitslücken unterbunden?werden. In dieser Bachelorarbeit wird das Thema API-Sicherheit und die damit verbundenen Herausforderungen behandelt. Realisiert wird das anhand der Implementierung einer Web API in Kooperation mit der Daimler AG. Unter Berücksichtigung der Daimler internen Sicherheitsrichtlinien und der OWASP API Top 10 Sicherheitslücken,?werden Sicherheitsrisiken aufgedeckt und Gegenma?nahmen umgesetzt. Für die Implementierung einer sicheren Web API wird dazu die projektspezifische Infrastruktur?und die vorangegangenen Sicherheitsma?nahmen berücksichtigt. Abschlie?end wird eine Evaluierung der Umsetzung durchgeführt, dabei wird auf die Machbarkeit und die?Herausforderungen bei der Implementierung einer sicheren Web API bei der Daimler?AG eingegangen.

?

Weniger Annotationen bei gleicher Modell-Qualit?t: Ein Vergleich verschiedener Ans?tze für Aktives Maschinelles Lernen am Beispiel eines optischen Hautkrebs-Klassifikators

Bachelorarbeit, Mai 2021

Das Training moderner Klassifikatoren ben?tigt üblicherweise gro?e Datens?tze, in welchen jeder Datenpunkt durch Menschen mit den darin enthaltenen Klassen annotiert wurde. Um diesen manuellen Arbeitsaufwand zu reduzieren, schl?gt das Konzept des Aktiven Lernens einen iterativen Prozess vor: Statt zuf?llig die n?chsten zu annotierenden Datenpunkte auszuw?hlen, werden der aktuelle Trainingszustand des Modells sowie das Verh?ltnis der Datenpunkte untereinander berücksichtigt, um so m?glichst früh die informativen Datenpunkte im noch nicht annotierten Datensatz zu finden. Dadurch besteht das Potential, dass deutlich weniger Annotationen n?tig sind, und früher ein Klassifikator mit vergleichbarer Modellqualit?t entsteht.

In diesem Kontext war es das Ziel der Arbeit, den aktuellen Stand der Wissenschaft in dem Bereich zu recherchieren und einen passenden Ansatz in einem bestehenden Beispielprojekt umzusetzen und auszuwerten.

?

威尼斯赌博游戏_威尼斯赌博app-【官网】ical Deep Learning: Comparing State of the Art Model Architectures for Skin Cancer Detection in Dermatoscopic Images

Bachelorarbeit, April 2021

Die Arbeit ist im Bereich des maschinellen Lernens auf medizinischen Bilddaten angesiedelt. Konkreter war das Ziel, auf einem bestehenden Datensatz von über 10.000 Bildern menschlicher Haut ein Modell zu entwickeln, welches in der Lage ist die sieben verschiedenen L?sionen zu unterscheiden. Dazu sollte der aktuelle Stand der Wissenschaft in dem Bereich recherchiert und umgesetzt werden. Um die Ergebnisse dieser Arbeit bestm?glich in weiteren Projekten der Professur unterzubringen, war zus?tzlich zur Modellqualit?t auch die zum Training ben?tigte Rechenzeit ein wichtiges Merkmal

Evaluation der CWE-Abdeckung von Analysetools auf
Code

Bachelorarbeit, Februar 2021

In den letzten Jahren ist der Umfang des Quellcodes von modernen Software Produkten exponentiell angestiegen. Zus?tzlich werden informationstechnische Systeme fortschreitend für sicherheitskritische Applikationen wie das autonome Fahren oder die Energieversorgung entwickelt. Daher steigen die Ansprüche der Nutzer sowie Unternehmen an die Qualit?t des Quellcodes, insbesondere in Hinblick auf die Sicherheit des Systems. Eine M?glichkeit, um die Sicherheit von Software weiter zu verbessern, ist die Verwendung sogenannter statischer Codeanalyse Tools. Im Rahmen dieser Bachelorthesis wird untersucht, inwiefern moderne statische Codeanalyse Tools die h?ufigsten Schwachstellen in Quellcode identifizieren k?nnen. Die ausgew?hlten Schwachstellen k?nnen dem Standardregelwerk der Common Weakness Enumeration zugeordnet werden. Für die Evaluation wurden zu 10 der h?ufigsten Schwachstellen des Jahres 2020 insgesamt 27 Testprogramme in der Programmiersprache C++ entwickelt. Dabei haben die drei ausgew?hlten statischen Codeanalyse Tools CppCheck, PVS-Studio und Cpp- Depend 12 beziehungsweise 13 der 27 Fehler richtig identifiziert. Damit kam es im Kontext dieser Bachelorarbeit zu einer vergleichsweisen hohen Entdeckungsrate von Common Weaknesses in Quellcode.

?

?

?

Reduktion des Annotationsaufwands - Ein Vergleich von Active Learning Frameworks

Bachelorarbeit, Januar 2021

Die Bachelorarbiet ist im Bereich der Softwareentwicklung mit Machine Learning (ML) angesiedelt. Zum überwachten Trainieren von ML-Modellen ist i.d.R. ein gro?er Satz an Daten, bestehend aus den Beispielen mit dazugeh?rigen Annotationen notwendig. Nachdem die Annotation von Daten sehr zeit- und kostenintensiv ist, wird versucht, mit Techniken wie Active Learning diesen Prozess effizienter zu gestalten. Das gro?e Potential bei diesem Verfahren kombiniert mit den Besonderheiten im medizinischen Kontext motiviert die Entwicklung eines umfassenden Active Learning Frameworks, welches sich für die Anwendung mit unausgeglichenen Datens?tzen eignet. In dieser Bachelorarbeit werden dabei drei existierende Open-Source Frameworks für Active Learning dahingehend untersucht, ob und inwieweit sie sich zur Adaption für eine Eigenimplementierung einigen. Um eine Bewertung vorzunehmen, wurden Kriterien definiert und anhand der Anwendung der Frameworks analysiert. Die praktische Umsetzung umfasst sowohl die Implementierung einer eigenen Query Strategie sowie ein Performance-Test unterschiedlicher Machine Learning Modelle für die betrachteten Active Learning-Frameworks. Eine Recherche zu weiteren Entscheidungsfaktoren rundet die Untersuchung ab.

?

?

Trade-off Analysis between Green Internet of Things?and Security Guidelines

Masterarbeit, Januar 2021

Das Internet der Dinge ist eine stetig wachsende Technologie die uns in vielen Bereichen des Lebens unterstützt. Die Ger?te die Teil des Internet of Things (IoT) sind,?sammeln Informationen und senden sie an andere Ger?te im Internet um ihre Aufgaben?zu erfüllen. Die Informationen die verarbeitet werden sind oftmals personenbezogene?Daten die es gilt vor Missbrauch zu schützen. Heutzutage werden Daten die über?das Internet gesendet werden durch verschiedene Sicherheits- und Verschlüsselungsmechanismen vor Missbrauch geschützt. Da die meisten g?ngigen Verschlüsselungsmechanismen, für viele ressourcenbeschr?nkte Ger?te wie sie im IoT zu finden sind,?sehr rechenaufw?ndig sind, gestaltet sich der Bau von effizienten und sicheren IoT?Ger?ten schwierig. Die Arbeit besch?ftigt sich mit der Analyse der Performanz von?verschiedenen alternativen Verschlüsselungsmechanismen und derer Sicherheitseinstellungen, und vergleicht die Einflüsse dieser in Bezug auf Energieeffizienz und Sicherheit?gegenüber heutigen g?ngigen Methoden. Die Resultate erm?glichen es praktikablere?Verschlüsselungsalternativen für ein grüneres und sichereres Internet of Things zu bestimmen für welches ein ausreichendes Sicherheitslevel erreicht werden kann, ohne die?Energieeffizienz so stark zu beeintr?chtigen wie es heute g?ngige Methoden tun.Sichern

2020

Process methodology of creating a care web portal of?insurance company clients

Bachelorarbeit, September 2020

Diese Bachelorarbeit verfolgt die Entwicklung eines Minimalwertproduktes einer?Tschechischen Softwareunternehmens, n?mlich die Entwicklung eines Webportals, welches die Schadensbeauftragter in Versicherungsunternehmen verwenden k?nnen. Die?Hauptfunktion dieses Webportals besteht darin, die Schadensbeauftragter bei der Suche nach einem geeigneten medizinischen Dienstleister für die Bedürfnisse ihrer Kunden zu unterstützen. Ziel der Abschlussarbeit war es, die Vorteile eines Minimalwertproduktes, die Gründe für die Verwendung für die Entwicklung des Webportals, seine Vorteile und die Einbindung in das Endprodukt zu erkl?ren. Abschlie?end wird?das Konzept dieser Software mit verschiedenen anderen Softwareanbietern sowohl aus?Deutschland als auch aus den USA verglichen

?

?

Architekturgestaltung sicherer Kommunikation in?Sensornetzwerken

Bachelorarbeit, September 2020

Sensornetzwerke, die aus vielen einzelnen Sensorknoten bestehen, haben eine Vielzahl von m?glichen Einsatzgebieten, darunter Milit?r, Umwelt oder den Haushalt.?Aufgrund der eingeschr?nkten Leistung der Sensorknoten, k?nnen viele in anderen?Netzen genutzten Sicherheitsmechanismen nicht verwendet werden. In der folgenden?Arbeit wird daher die Frage beantwortet, wie die Kommunikation und Netzwerkarchitektur gestaltet werden muss, um trotzdem Sicherheit gew?hrleisten zu k?nnen. Dazu?werden alle Schichten des Protokollstapels betrachtet und deren? Sicherheitsanforderungen identifiziert. Auf jeder Schicht gibt es mehrere m?gliche Angriffe. Diese werden?erkl?rt und unterschiedliche Gegenma?nahmen pr?sentiert. Weiterhin werden auf jeder?Schicht Protokolle vorgestellt und deren Sicherheitsmechanismen erl?utert. Der n?chste Abschnitte besch?ftigt sich n?her mit der Gestaltung einer sicheren Kommunikation.?Die Kommunikation kann geschützt werden, indem symmetrische Schlüssel verwendet?werden, um die übertragenen Nachrichten zu verschlüsseln. Dabei gibt es verschiedene M?glichkeiten, um symmetrische Schlüssel auf die Sensorknoten zu verteilen.?Hier werden sowohl probabilistische, als auch deterministische Verfahren betrachtet.?Im Folgenden werden die Sicherheitsmechanismen aktueller Standards dargestellt und?erkl?rt, warum diese noch nicht ausreichend sind. Schlie?lich weder hier noch mehrere?Verbesserungsvorschl?ge gemacht. Insgesamt kann man feststellen, dass die Kommunikation in einem Sensornetzwerk noch nicht ausreichend gegen Angriffe geschützt ist

?

?

?

Linienextraktion zur Fahrbahnerkennung im
Kontext autonomer Fahrzeuge

Bachelorarbeit, Juli 2020

Diese Arbeit beschreibt Schritt für Schritt die Funktionsweise eines Python-basierten Linienextraktionsalgorithmus für die Nutzung in der Modellierung autonomen Fahrens sowie die Bestimmung der Parameter für diesen Algorithmus. Die hierfür verwendete Hardware ist ein NVIDIA Jetson TX1 Developer Kit mit CUDA-Support. Das Programm wird mit der Nutzung der OpenCV Library entwickelt. Die Arbeit gibt weiterhin einen ?berblick über die Verarbeitungsgeschwindigkeit des Algorithmus und dessen einzelnen Schritten. Abschlie?end werden m?gliche Ans?tze zur Erweiterung und weiteren Optimierung des Algorithmus? beschrieben.

?

?

?

Konzeptvergleich von Cyber Physical?Systems und Internet of Things im?Kontext Telemedizin

Bachelorarbeit, Juli 2020

In den letzten Jahrzehnten konnten gro?e Fortschritte sowohl in der Rechnerentwicklung als auch im Bereich der Kommunikationstechnik festgestellt werden. Auch deshalb?finden Cyber-physische Systeme (CPS) und Internet of Things (IoT) Anwendung im?Bereich der 威尼斯赌博游戏_威尼斯赌博app-【官网】izin. In dieser Arbeit werden die beiden Konzepte definiert, eingeführt,?technisch analysiert und evaluiert. Ein wesentliches Augenmerk wird dabei auf Aspekte der Safety und Security gelegt. Darüber hinaus werden CPS und IoT miteinander?verglichen. Dabei werden die Gemeinsamkeiten und Unterschiede herausgearbeitet. In?der Literatur existieren unterschiedliche Ansichten, ob CPS und IoT identische Konzepte sind, oder nicht. In Abschnitt 5.2 konnten sieben Merkmale identifiziert werden,?anhand derer die Abgrenzung voneinander m?glich ist

?

?

Echtzeitkritische ML-basierte Bildverarbeitung auf dem NVIDIA JetsonTX1 für autonomes Fahren im Ma?stab 1:8

Bachelorarbeit, M?rz 2020

Eingebettete Graphics Processing Units (GPUs) wie das NVIDIA JetsonTX1 zeichnen sich durch ihre kompakte Bauform sowie hohe Leistung bei geringem Energieverbrauch aus. Sie eignen sich gerade deshalb für Anwendungen im Bereich des autonomen Fahrens. Die vorliegende Arbeit befasst sich mit der Integration des JetsonTX1 als Recheneinheit zur echtzeitkritischen und Machine Learning (ML)-basierten Bildverarbeitung
zum autonomen Fahren. Hierzu wurden in einem Praxisteil bereits bestehende Algorithmen zur Bildverarbeitung auf das JetsonTX1 portiert. Zus?tzlich wurden mithilfe von passender Middleware, Endpunkte zur Integration des TX1 in die Verarbeitungskette eines Modellautos geschaffen. Der Theorieteil befasst sich zun?chst mit den n?tigen hardware- und softwaretechnischen Grundlagen der Integration. Anschlie?end wird beschrieben, wie die Umsetzung mithilfe einer Client-Server-Architektur gelang und wie sich das System den strikten Echtzeitanforderungen annimmt. Der anschlie?ende Vergleich mit der Vorg?ngerarchitektur verdeutlicht die leistungs- sowie sicherheitstechnischen Vorteile der neuen Architektur. Das letzte Kapitel gibt einen Ausblick auf weitere m?gliche Optimierungen hinsichtlich Software und Hardware.

?

?

Konzeption zur Erweiterung des ONOS Intent Frameworks für die Einbindung von Policy Graph Abstractions

Bachelorarbeit, M?rz 2020

Intent-Based Networks (IBN) verbergen die Komplexit?t der Netzverwaltung durch eine h?here Abstraktionsebene, um die Steuerung von heterogenen Ger?ten und Diensten des Netzwerks mithilfe von deklarativen Richtlinien zu vereinfachen. Eine Umsetzung dieses Ansatzes zeigt das Intent-Subsystem des Open Network Operating Systems (ONOS), welche die Anfragen zur Initialisierung von Intents entgegennimmt und daraus die ger?tespezifischen Konfigurationen ableitet. Ein Problem bei der bestehende Implementierung tritt jedoch im Zusammenhang mit konkurrierenden Intents auf. Das Intent-Subsystem bearbeitet einzelne Anfragen unabh?ngig von bereits installierten Intents und ist nicht geeignet, Konflikte zwischen unterschiedlichen Intents zu erkennen. Zur Identifikation und Behandlung von Abh?ngigkeiten zwischen verschiedenen Intents wird daher Policy Graph Abstraction (PGA) vorgeschlagen. PGA nutzt Graphen zur Abstraktion von übergeordnete Richtlinien mit dem Ziel, Abh?ngigkeiten zu erfassen und eine konfliktfreie Verschmelzung durchzuführen.

?

?

Model-to-Model Transformationen im Kontext Modellzentrischer Testmechanismen am Beispiel UTP2

Bachelorarbeit, Februar 2020

Das modellbasierte Testen liefert einen Ansatz, den Testprozesses eines Systems durch Modelle zu erweitern. In diesem Kontext definiert die Object Management Group (OMG) die Modellierungssprache namens UML Testing Profile 2 (UTP2). Diese erm?glicht es, Testartefakte zu beschreiben und zu visualisieren. In dieser Arbeit wird zuerst ein ?berblick über das modellbasierte Testen und die wichtigen Begriffe der Metamodellierung und Modelltransformationen gegeben. Dabei wird vor allem auf die Standards der OMG genauer eingegangen. Nach einer kurzen Einführung des Eclipse Modeling Framework und der UTP2, werden drei Metamodelle vorgestellt. Anhand dieser werden zwei Model-to-Model-Transformationen definiert, die ein UTP2-konformes visuelles Modell in ein Modell zur weiteren Analyse umwandeln. Den Abschluss der Arbeit bildet ein Abschnitt über m?gliche Erweiterungen der Metamodelle und Modelltransformationen.

?

?

Model-to-Model Transformation im Kontext Modell-basierter Software- und System-Analysen

Bachelorarbeit, Februar 2020

Wenn Transformationen zwischen Modellen in der Softwareentwicklung manuell erledigt werden, kann dies einige Nachteile mit sich bringen. Es ist zum einen nicht effizient und zum anderen eine potenzielle Fehlerquelle. Dies kann durch eine automatisierte Transformation dieser Modelle, wie sie in dieser Arbeit beschrieben wird, teilweise vermieden werden. Die Arbeit zeigt eine Transformation zwischen drei unterschiedlichen Ecore-Modellen. So geht sie zu Beginn auf grundlegendes Wissen ein, welches im Laufe der Arbeit anhand der Transformation wiederverwendet und durch ein konkretes Beispiel veranschaulicht wird.

?

?

?

?

?

Evaluation der Benutzerfreundlichkeit des Eclipse Testframeworks SWTBot

Bachelorarbeit, Januar 2020

Mit steigender Bedeutung von der Software in unserem Leben spielt das Softwaretesten eine immer gr??ere Rolle für die Softwareentwicklung. Das Testen l?sst die Qualit?t von der Software auf hohem Niveau halten. Das Ziel dieser Bachelorarbeit ist die Verwendung von dem Eclipse Testframework SWTBot beim Testen eines GUI zu evaluieren. Dazu gibt diese Bachelorarbeit einen ?berblick über die Software Prüftechniken, sowie über die Besonderheiten beim Testen eines GUI. Dabei werden Vorteile und Nachteile der GUI-Testautomatisierung analysiert, sowie auf die Vorgehensweise der GUI-Testautomatisierung eingegangen. Für die Evaluation des Eclipse Testframework SWTBot werden die Testszenarien vorgestellt und die Testergebnisse pr?sentiert. Abschlie?end wird die Verwendung von SWTBot mit dem klassischen Testprozess mittels JUnit verglichen. Dieser Vergleich ergibt, dass die Verwendung von SWTBot die Aufwandsersparnis beim Testen eines GUI bietet.

?

2019

Funktionsvalidierung eines Onboard-Datenverarbeitungssystems zur Anwendung im Motorsport

Bachelorarbeit, Dezember 2019

Im Motorsport werden w?hrend den Rennen die Fahrzeugdaten mitgeschrieben um im Nachhinein zu ?berprüfen, ob die Fahrzeuge die Vorgaben des Reglements erfüllen. Diese Arbeit wird von technischen Delegierten durchgeführt. Ein System, welches die Validierung der Daten übernimmt wird derzeit entwickelt. Ein Testrahmen für dieses System existiert noch nicht.
Im Rahmen dieser Arbeit wird ein Validierungssystem für ein Onboard-Datenverarbeitungssystem zur Anwendung im Motorsport entwickelt. Hierfür wird eine Softwarearchitektur entwickelt und ein Katalog von Akzeptanzkriterien erstellt. Anhand dessen wird eine Referenzimplementierung entworfen und ein Protoyp gebaut. Das erstellte System wird anschlie?end bewertet. Die Methoden zur Umsetzung dieser Systementwicklungsaufgabe richten sich an die Stabdards des IEEE.

?

?

?

Sensorfusion im Kontext autonomer Fahrzeuge im Ma?stab 1:8

Bachelorarbeit, Dezember 2019

Das Ziel dieser Arbeit war eine geeignete Sensorfusion für ein Modellauto im Ma?stab 1:8 zu entwerfen. Dabei wurde sich auf Daten aus Ultraschallsensoren und einem LiDAR-System beschr?nkt. Die gro?en Unterschiede dieser Technologien stellen eine Schwierigkeit der Fusion dar. Um aus theoretischen Konzepten die richtige Wahl zu treffen, muss das Setup genau analysiert werden. Dazu wurden die Sensoren sowie die Umgebung des Autos genauer untersucht. Anhand dieser Evaluierung wurde sich für eine fahrzeugfeste Belegungskarte entschieden. Ein Problem, das dabei entscheidend ist, sind die begrenzten Systemressourcen. Deswegen wird bei der Speicherung auf eine effiziente Struktur zurückgegriffen. Der Hauptteil der Arbeit besteht in der Umsetzung
des konkreten Ablaufs von der Sensormessung bis zur Speicherung der fusionierten Daten. Diese Realisierung ist auch auf normal gro?e Fahrzeuge übertragbar.
?

?

?

Durchführung einer Mehrwertanalyse zur Evaluation?des Einsatzes von IoT-Ger?ten im Profi-Sport

Bachelorarbeit, November 2019

Heutzutage greifen viele Topclubs bei der Trainingsgestaltung auf Daten zu, die sie?durch den Einsatz von Wearables erhalten haben. Aus diesem Grund wird in dieser?Arbeit die Anwendung vonWearable Technologien im Profisport untersucht. Die dabei?zu kl?rende Frage ist, ob diese Technologien eine Leistungssteigerung mit sich bringen.?Es wird aufgezeigt, dass es viele verschiedene Arten von Wearables gibt, die mit?unterschiedlichen technischen Komponenten ausgestattet sind. Au?erdem wird deutlich,?wie die Technologien mit den dazugeh?rigen Applikationen zusammenarbeiten,?um die sportliche Aktivit?t gezielt zu unterstützen. Im Anschluss wird der Begriff?der Leistungssteigerung definiert. Darüber hinaus werden die zu verbessernden K?rperfunktionen?und Bewegungsabl?ufe erl?utert. Diese lassen sich ebenfalls als motorische?F?higkeiten zusammenfassen und ihre Verbesserung erfolgt durch das Einhalten?gegebener Trainingsprinzipien. Anschlie?end folgt ein Bewertungsschema. Durch die?gezielte Vergabe von unterschiedlichen Gewichtungen, kann ein individueller Vergleich?von Wearables durchgeführt werden. Dabei kristallisieren sich geeignete Technologien,?für eine Vielzahl von unterschiedlichen Sportarten heraus. Zu letzt wird die praktische?Anwendung von Wearables in professionellen Umgebungen pr?sentiert. Hierbei wird?ersichtlich, dass der Fokus auf die Auswertung von physiologischen Paramatern gesetzt?wird, da diese ein Indikator für Verletzungsanf?lligkeit oder Leistungssteigerung sind.

?

?

?

Sicherheitsanalyse in der 威尼斯赌博游戏_威尼斯赌博app-【官网】izin mit Hilfe von Penetration Testing

Bachelorarbeit, Oktober 2019

Durch die Digitalisierung und die steigende Anzahl von Cyber-Angriffen ist das Gesundheitswesen?in Bezug auf die Sicherstellung der Informationssicherheit so gefordert?wie noch nie. Deshalb ist das Ziel dieser Arbeit die Analyse des sinnhaften und ausreichenden?Einsatzes von verschiedenen Herangehensweisen des Penetration Tests im?Anwendungsgebiet der 威尼斯赌博游戏_威尼斯赌博app-【官网】izin. Dabei sollen die verschiedenen eingesetzten Varianten?untersucht und kritisch gewürdigt werden. Au?erdem werden Besonderheiten der Penetration?Tests in der 威尼斯赌博游戏_威尼斯赌博app-【官网】izin analysiert. Für die Beantwortung der Forschungsfrage?ist eine ausführliche und kritische Literaturrecherche betrieben worden. Die Arbeit ist?zu dem Ergebnis gekommen, dass der Einsatz von Penetration Testing in der 威尼斯赌博游戏_威尼斯赌博app-【官网】izin?sinnvoll sein kann. Im Anwendungsgebiet der 威尼斯赌博游戏_威尼斯赌博app-【官网】izin weisen Penetration Tests?kaum Besonderheiten auf. Die tats?chliche Durchführung ist schwer festzustellen, da in diesem Zusammenhang nur wenige Statistiken zur Verfügung stehen. Diese Tatsache?und die gefundenen Daten weisen auf einen nicht ausreichenden Einsatz in allen?Anwendungsgebieten hin.

?

?

Methoden für die Qualit?tsanalyse von EAST-ADL Systemarchitekturmodellen

Bachelorarbeit, September 2019

Das Ziel der vorliegenden Bachelorarbeit ist es, M?glichkeiten zur Qualit?tsanalyse von EAST-ADL-Systemarchitekturen aufzuzeigen. Dazu stellt sich die Frage, ob und in welchem Umfang Metriken zur Qualit?tsmessung von Softwarearchitekturen auch auf ebensolche Systemarchitekturen übertragbar sind. Um diese Frage zu beantworten wurde versucht, Konzepte und Metriken aus der Softwareentwicklung auf EAST-ADL-Systemarchitekturmodelle zu übertragen. Dabei stellte sich heraus, dass aufgrund der unterschiedlichen Konzepte in Software- und Automobilentwicklung viele der Metriken nicht oder nur mit Einschr?nkungen? übertragbar sind. Dennoch wurden erfolgreich einige der Ma?zahlen entweder direkt oder mit geringen Anpassungen auf EAST-ADL transferiert. Daraus resultierend zeigt diese Arbeit auf, dass die Anwendung von bereits erprobten Metriken auf EAST-ADL-Systemarchitekturmodelle grunds?tzlich m?glich ist. Damit er?ffnet sich auch mit der empirischen? Evaluation dieser Metriken in weiterführender Forschung die M?glichkeit, solche Modelle automatisiert auf gewisse Qualit?tseigenschaften zu untersuchen.
?

?

Evaluierung von OpenHAB 2 anhand eines 威尼斯赌博游戏_威尼斯赌博app-【官网】ical Smart Home Use Cases zur Entwicklung von Bindings

Bachelorarbeit, September 2019

Das Ziel der vorliegenden Bachelorarbeit ist die Evaluation von OpenHAB2, eine Open?Source L?sung von Smart Homes. Hierzu werden mehrere IoT Plattformen untersucht?und diese bezüglich ihrer Struktur und Funktionalit?t miteinander verglichen. Mithilfe?eines 威尼斯赌博游戏_威尼斯赌博app-【官网】ical Use Cases, bei dem ein Binding für Fitbit Ger?te entwickelt wurde, kann?der medizinische Mehrwert der Plattform bewertet werden. Hierbei stellt sich heraus,?dass OpenHAB2 für die Entwicklung von medizinischen Smart Homes ungeeignet ist,?da sich die Plattform noch in der Reifephase befindet und noch keine Erweiterungen?für medizinische Sensoren und Ger?te anbietet.

?

?

Identifikation und Analyse von Safety Aspekten in medizinischen IoT-Ger?ten

Masterarbeit, Juli 2019

Die Technologie des IoT spielt im Sektor der 威尼斯赌博游戏_威尼斯赌博app-【官网】izin eine immer bedeutendere Rolle.?Eine Vielzahl von Produkten die heute aus der 威尼斯赌博游戏_威尼斯赌博app-【官网】izintechnik hervorgehen sind mit?winzigen Sensoren ausgestattet und erm?glichen es, das sich Gegenst?nde mit anderen?Gegenst?nden oder Systemen via Internet verbinden k?nnen. Dazu z?hlen u.a. auch?Ger?te wie Schrittmacher oder Insulinpumpen, welche direkt am K?rper einer Person?getragen werden. Personen mit bestimmten Krankheiten sind auf diese tragbaren?medizinischen IoT-Ger?te angewiesen, da diese entsprechende Ma?nahmen einleiten,?um den Betroffenen davor zu bewahren, in eine gesundheitskritische Situationen zu kommen. Doch die Abh?ngigkeit von Ger?ten wie diesen, birgt auch Gefahren, wenn?das entsprechende Ger?t in seiner Verfügbarkeit bzw. im Normalbetrieb eingeschr?nkt?wird und so nicht die Unterstützung für den Betroffenen geleistet wird, die notwendig?w?re. Im Zuge dessen identifiziert diese Arbeit zum einen Gefahren, welche den Betrieb?von medizinischen IoT-Ger?ten hemmen oder gar zum Erliegen bringen k?nnen.?Zum anderen stellt diese Arbeit eine Vorgehensweise vor, mit der anhand einer Sicherheitsanalyse?m?gliche Gefahren frühzeitig entdeckt und minimiert werden k?nnen. Zur?Verdeutlichung dieser Vorgehensweise wird die Sicherheitsanalyse am Beispiel einer? Insulinpumpe durchgeführt. Dabei zeigt das Ergebnis dieser Analyse auf, dass mehrere?Gefahren existieren, die nicht nur zur Beeintr?chtigung von medizinischen IoT-Ger?ten?führen k?nnen, sondern auch schwere Sch?den bei Betroffenen hervorrufen.

?

?

Automatische Erstellung von IT-Architekturmodellen aus Kommunikationsdaten

Bachelorarbeit, April 2019

Das IT-Architekturmodell ist ein Werkzeug, um die Infrastruktur und die Beziehungen der einzelnen Systemkomponenten untereinander zu beschreiben. Es sorgt dafür, dass selbst gro?e und komplexe IT-Landschaften handelbar werden. Das erreicht es unter anderem durch eine einheitlichen Beschreibung des Systems. An ihnen k?nnen beispielsweise Analysen durchführt und Visualisierungen aus verschieden Blickwinkeln erstellt werden. Eine Erweiterung dazu stellt das Unternehmensarchitektur Modell dar. Dieses betrachtet nicht nur die IT-Landschaften, sondern das komplette?Unternehmen mit all seinen Produkten, Gesch?ftsprozessen und der IT.

Diese Arbeit liefert ein Konzept für die Modellerstellung einer Servicelandschaft aus Kommunikationdaten. Die Datengrundlage liefter das Application Performance Management Tool Instana. Das Konzept wird in Bezug auf das Werkzeug, zur modellgestützten Analyse, AutoAnalyze beschrieben. Basierend auf den erfassten Daten werden drei weitere Analysekonzepte für AutoAnalyze vorgeschlagen. Diese umfassen eine Schw?chen-Analyse, eine Kapazit?ten-Analyse und eine Analyse, die das Einführen eines neuen Prozesses in ein bestehendes Systems betrachtet.

Abschlie?end werden die Vorteile von Instana und AutoAnalyze betrachtet und miteinander verglichen, um ein klares Bild über die Einsatzgebiete der beiden zu erhalten.

?

?

Grundlagen der Blockchain-Technologie und ihre Anwendungen

Bachelorarbeit, M?rz 2019

Das Ziel dieser Arbeit ist die Erkl?rung der Blockchain-Technologie, einschlie?lich der Funktionsweise dieser Datenstruktur anhand praktischer Beispiele. Da die speziellen Charakteristiken einer Blockchain auf mathematischen und kryptographischen Methoden beruhen, werden diese im Rahmen dieser Arbeit erl?utert. Daraufhin werden die Funktionsweise, die Konsensfindung und m?gliche Schwachstellen der Datenstruktur erkl?rt. Der zweite Teil der Arbeit beschreibt die Funktionsweise und Bedeutung der Blockchain anhand von zwei aktuellen praktischen Beispielen, Bitcoin und Ethereum. Mittels Bitcoin werden die Grundlagen einer klassischen Kryptow?hrung wie Transaktionen, Mining, Adressen und die verwendete Software erkl?rt. Neue Technologien wie Smart Contracts und die daraus resultierenden M?glichkeiten werden mittels der modernen W?hrung Ethereum erl?utert.

?

?

Datenfluss-basierte abstrakte Testausführung in der Modell-basierten Softwareentwicklung

Masterarbeit, M?rz 2019

?

?

Representative For A Linear Function Using The Example Of A Street Lane

Bachelorarbeit, M?rz 2019

?

?

Autonomous Overtaking Systems: Design, Modelling and Analysis

Bachelorarbeit, Februar 2019

The future of mobility and transportation are autonomous driving systems. Improving driving safety is the key purpose of these systems. Since overtaking is one of the major causes of fatal accidents, there is need for the development of an overtaking driver assistant system that improves safety during the execution of this maneuver. In this thesis an autonomous overtaking system is designed, modelled and simulated using a set of powerful software tools (MATLAB/Simulink and CarMaker). The algorithm is developed based on equations of lateral deviation and longitudinal displacement of vehicle models in terms of time. Using these, the total maneuver time is calculated and then it is decided whether a collision-free execution of the maneuver with the oncoming or trailing-vehicle is possible. The modelled algorithm achieves collision-free overtaking maneuvers under specific conditions and it employs three overtaking strategies namely the accelerative (normal), the flying and the 2+, each according to the traffic conditions at the time of performing the maneuver.

?

?

Entwicklung eines Open Source Frameworks zur Nachverfolgung von Abl?ufen und Kosten für Serverless Computing L?sungen

Bachelorarbeit, Februar 2019

In dem neuen Konzept Serverless Computing übernimmt ein Cloud-Anbieter die volle Verantwortung über die Ausführung von Programmcode und erm?glicht eine Kostenabrechnung, die nur auf der tats?chlichen Ausführung einer Anwendung basiert. Im Mittelpunkt dieser Bachelorarbeit steht die Entwicklung eines anbieterunabh?ngigen Frameworks zur besseren ?bersicht über Abl?ufe und Kosten bei Verwendung des Konzeptes Serverless Computing. Dazu wurden Aspekte herausgearbeitet, die für den Einblick in ein Serverless Computing System interessant sind und es wurden die mit Serverless Computing einhergehenden Einschr?nkungen analysiert. Aus diesen Erkenntnissen wurden verschiedene m?gliche Datenquellen für das Framework abgeleitet und anhand eines Cloud-Anbieters verschiedene Architekturentwürfe eines Frameworks erstellt. Die unterschiedlichen Entwürfe zeigen, wie Informationen zu dem Framework transportiert und dort weiterverarbeitet werden k?nnen.

Eine Variante der Architekturentwürfe wurde mit einem beliebten Open Source Werkzeug implementiert. Dazu wurde zus?tzlich ein Beispielfall entwickelt, der die Funktionalit?t des Frameworks validieren konnte. Das Ergebnis der Arbeit ist ein praktisch einsetzbares Framework, das Ausführungen und Kosten von Serverless Computing Anwendungen überwachen kann und weitere interessante Forschungsfragen aufzeigt.

?

?

Vergleich aktueller Implementierungen von Message Oriented Middlewares

Bachelorarbeit, Februar 2019

In der modernen Softwareentwicklung finden sich in gro?en Anwendungen h?ufig sogenannten?Message Oriented Middlewares?wieder. Hierbei handelt es sich um Systeme, die eine effiziente Kommunikation zwischen einer gro?en Anzahl von Prozessen erm?glichen, oft auch in verteilten Systemen oder heterogenen Netzen. In den letzten Jahren gab es vermehrt Weiterentwicklungen im Bereich der Message Oriented Middleware, da diese nicht zuletzt auch in Microservices vermehrte Verbreitung gefunden haben. Hierbei handelt es sich um Message Oriented Middlewares, die als eigene Anwendung unabh?ngig vom restlichen System betrieben werden. Es existieren viele Implementierungen, wobei sich diese untereinander stark unterscheiden k?nnen. Bei der Konzeption eines Systems, welches eine Message Oriented Middleware verwendet, verliert man daher schnell den ?berblick über diese.

Aus diesem Grund wird diese Arbeit einen ?berblick über bestehende L?sun- gen geben und diese auf konzeptioneller Ebene vergleichen. Einzelne Punkte, in denen sich diese unterscheiden, werden dabei begründet erarbeitet und zu einem Katalog zusammengefasst werden. Dies erm?glicht, die Erkenntnisse aus der Arbeit auch auf zukünftige Entwicklungen anzuwenden. Daraufhin wird ein Vergleich erstellt, um die aktuell führenden Implementierungen aufzeigen und ihre Unterschiede in den Punkten dieses Kataloges gegenüberzustellen. Letztendlich soll für ein Zielsystem des Betreuers (CHECK24 Versicherungsservice GmbH) eine geeignete Implementierung gew?hlt werden. Da die Umsetzung den Rahmen der Arbeit sprengen würde, wird sich hier auf eine Analyse der m?glichst optimalen L?sungen beschr?nkt. Hierzu werden für dieses System spezifische Anforderungen identifiziert und versucht, mit dem im zweiten Teil der Arbeit vorgestellten Katalog eine Kategorie für dieses Zielsystem zu finden. Daraufhin kann eine Empfehlung einer L?sung ausgesprochen werden. Da eine konkrete Implementierung entf?llt, werden theoretische Probleme der empfohlenen Implementierung er?rtert und L?sungsvorschl?ge pr?sentiert werden.

Zusammenfassend wird zum einen ein ?berblick über Implementierungen erstellt, der diese konkret vergleicht. Dabei werden einzelne Punkte des Vergleichs vorher erarbeitet und anschlie?end nach Relevanz eingeordnet. Letztendlich werden anhand eines Fallbeispiels die vorherigen Abschnitte validiert und ein Fazit gezogen.

?

?

Efficient Online Topology-Aware Network Slice Embedding for 5G Mobile Networks

Masterarbeit, Februar 2019

Network slicing is seen as a key enabler in order to meet the requirements that arise for the fifth generation of mobile networks (5G). This includes dealing with diverse new use cases like enhanced Mobile Broadband (eMBB), large sensor networks for the industry or the Internet of Things (IoT), autonomous driving, remote surgery etc. With network slicing, it is possible to integrate a variety of different applications and services on a shared physical infrastructure, whereby all requirements can be satisfied. New requests for embedding such network slices are arising unpredictably, as the requests come up just when new services are added to the network. Furthermore, they leave dynamically. Therefore, the necessity for finding an efficient, fast network slice embedding algorithm is given. Hence, this thesis introduces an online, heuristic algorithm that can solve the problem in few milliseconds. It is based on rankings that are computed by ranking algorithms for the substrate as well as for the slices. Four different ranking algorithms are proposed and evaluated, they can be differentiated by their usage of resources and/or topology as ranking measurements. All algorithms are evaluated on different substrate architectures (layer and cyclic) together with a variety of network slice types. Simulations show that depending on the slice type and the substrate architecture, different ranking algorithms perform best. For example, the algorithm based on Google’s PageRank algorithm achieves the best results for mobile broadband like slices on a cyclic substrate. Furthermore, the evaluation shows that in comparison to an optimal embedding strategy, all algorithms are in average about 1500 times faster.

?

?

Analyses of Internet of Things with 威尼斯赌博游戏_威尼斯赌博app-【官网】ical Devices

Bachelorarbeit, Januar 2019

Der Trend des Gesundheitswesens entwickelt sich immer weiter dahin, Patienten zu Hause zu versorgen. Dies geschieht mit einem Netzwerk, welches eine Erweiterung des Internet of Things (IoT) darstellt - das sog. Internet of Things with 威尼斯赌博游戏_威尼斯赌博app-【官网】ical Devices (IoTMD). Dadurch soll trotz einer erh?hten Pflegebedürftigkeit der Bev?lkerung die Lebensqualit?t erhalten bleiben und der damit verbundenen rapiden Kostenerh?hung vorgebeugt werden. Die Heimbetreuung, welche mittels Sensoren umgesetzt wird, ist allerdings mit vielen Problemen v. a. im Bereich der Security und Safety verbunden. Um die Zweckm??igkeit des praktischen Einsatzes zu analysieren und Schw?chen und zeitliche Ver?nderungen zu erkennen, müssen eine Vielzahl von Metriken wie Latenz, Safety, Security, Kosten, Verfügbarkeit und Qualit?t bewertet werden. Dies geschieht über Analysemethoden wie z. B. der Prospective Hazard Analysis (PHA) oder der Root Cause Analysis (RCA), welche die Architektur immer weiter optimieren, indem Ausl?ser für negative Ereignisse ermittelt werden. Au?erdem existieren zur Vereinfachung der Architekturabbildung Analysetools wie Custodian oder Node-RED. Deren Aufgaben ist es, Designer dabei zu unterstützen, die Metriken und die Architektur bereits in der Designphase zu bewerten und so den Effektiveinsatz geeignet zu optimieren.

2018

Erweiterung des Versionsverwaltungssystems Git um eine Invariantenprüfung

Bachelorarbeit, November 2018

?

?

Evaluierung von Simulations- und Modellierungswerkzeugen für Internet of Things

Bachelorarbeit, Oktober 2018

In der folgenden Bachelorarbeit werdenWerkzeuge zur Simulation und Modellierung eines IoT-Netzes untersucht. Die Tools sollen dabei auf ihre Nützlichkeit hinsichtlich der Erweiterung und Neuerstellung, sowie dem Testen eines bereits bestehenden Netzes untersucht werden. Dabei werden die Tools in drei Kategorien unterteilt. Die erste Kategorie widmet sich der Netzwerkmodellierung. Besprochen werden: NS-3, Packet Tracer, CupCarbon und NetSim. Die zweite Kategorie setzt sich mit der Ger?tesimulation auseinander, besprochen werden Node-RED und Simulink, sowie die IoT Plattformen von Amazon und IBM, bei welchen zudem noch auf die Thematik von ?Security by Design“ eingegangen wird. Im letzten Abschnitt wird auf die modellgetriebene Softwareentwicklung im Bereich der IoT eingegangen, wobei das Tool Papyrus vorgestellt wird.

?

?

Evaluierung von Safety- und Security-Aspekten eines IoT-MD-Systems zur Vermeidung gesundheitsgef?hrdender Angriffe

Bachelorarbeit, Oktober 2018

Das Internet der Dinge und die Anzahl st?ndig mit dem Internet verbundener Ger?te erlebten in den letzten Jahren ein massives Wachstum, das inzwischen auch in den Gesundheitssektor vorgedrungen ist. Insbesondere in diesem Kontext spielt Sicherheit eine existenzielle, teilweise lebenswichtige Rolle. In dieser Bachelorarbeit werden Safety- und Security-Aspekte medizinischer IoT-Ger?te (IoT-MD) und deren Auswirkungen bzw. Risiken für die Gesundheit ihrer Anwender untersucht. Zun?chst soll ein ?berblick über das ?Internet of Things of 威尼斯赌博游戏_威尼斯赌博app-【官网】ical Devices“ gegeben werden, wobei ein besonderes Augenmerk auf IoT-Endger?te gelegt werden soll. Anschlie?end werden m?gliche Szenarien für Angriffe auf IoTMD-Systeme im Detail untersucht, sowie mehrere Taxonomien zur Klassifikation von Angriffen vorgestellt. Anschlie?end sollen die vorgestellten Angriffsszenarien in diese Klassifikationssysteme eingeordnet werden. Das Ziel dieser Evaluierung ist es hierbei, wiederkehrende Schwachstellen und Angriffspunkte, sowie die durch sie m?glichen Auswirkungen aufzuzeigen. Darüber hinaus sollen kurz auch weitere Teilmengen von ?Sicherheit“, namentlich Safety sowie Datenschutz-Aspekte, im Kontext von IoT-MD-Ger?ten kurz untersucht werden. Den Schluss dieser Arbeit bildet eine abschlie?ende Einsch?tzung, welchen Einfluss Safety- und insbesondere Security-Probleme und die damit verbundenen Risiken auf die langfristige Perspektive von IoT-MD Systemen haben k?nnten.

?

?

Einfluss der Einbauumgebung von Radarsensorik auf die Sensorwahrnehmung für Fahrerassistenzsysteme

Bachelorarbeit, Oktober 2018

?

?

Coordination of Network Slice Objectives in Self-Organising Mobile Networks - A Formal Model and Architecture

Masterarbeit, September 2018

Self-Organising Networks (SON) highly reduce the manual effort required to configure and manage mobile networks. The network operator defines high level goals in form of Key Performance Indicator (KPI) targets, which are interpreted by a SON Management System controlling the SON functions of the underlying mobile network. With the fifth generation of mobile networks network slicing is introduced. Network slices are logical networks sharing a common mobile network infrastructure and providing diverse services for different use-cases and applications. The requirements of the network slices regarding the underlying mobile network infrastructure can widely vary and can even be conflicting. This thesis proposes a model for slice objective definition and coordination in order to determine the best trade-off for the SON configurations of the overall network. The slice objective coordination takes the cost of providing the required resources to fulfil the network performance objectives and the objective fulfilment for each network slice into account.

?

?

Serverless Architecture mit AWS

Bachelorarbeit, September 2018

Serverless Architecture?ist ein recht neuer Trend des Cloud-Computing, in den derzeit von den etablierten Cloudanbietern stark investiert wird. Unter Serverless? werden einerseits der Einsatz sehr kurzlebiger, zustandsloser? Ausführungscontainer für Funktionen (vergleichbar mit den Methoden? prozeduraler Programmiersprachen) und andererseits ein massives Einbinden von Drittanbieter-Diensten verstanden. Grunds?tzlich bietet Serverless Architecture einzigartige Vorteile, weist derzeit allerdings auch noch verschiedene Schwachstellen auf.
In dieser Arbeit wird dieses Konzept ausführlich vorgestellt und ein realti?tsnaher Use-Case – ein Chatprogramm – exemplarisch durch den Einsatz von
Amazon Web Services?umgesetzt, wobei die Infrastrukturbereitstellung mit?AWS
CloudFormation?automatisiert und erleichtert wird. Anschlie?end wird untersucht, ob eine sinnvolle Umsetzung m?glich war, sich Schwachstellen an den
verwendeten Plattformen gezeigt haben und wo die Grenzen der verwendeten
Automatisierungstechnik liegen.

?

?

Sensorfusion zur Fluglage- und Positionsbestimmung von UAV

Bachelorarbeit, September 2018

Das Forschungsziel dieser Arbeit unterteilt sich in mehrere Gebiete. Um eine Hinführung auf das eigentliche Thema der Sensorfusion zu erzielen, wird zu Beginn auf allgemeine Konzepte der Koordinatenbestimmung eingegangen. Die verschiedenen Darstellungen von Winkeln in unterschiedlichen Koordinatensystemen werden in diesem Punkt erl?utert, da diese von Sensor zu Sensor variieren k?nnen. Weiterleitend dazu werden die grundlegenden Sensoren zur Positions- und Lagebestimmung bei UAVs analysiert. Dabei werden die allgemeinen Funktionsweisen, sowie auch deren Tendenz zu verschiedenen Arten von Fehlern untersucht. Um diese Fehlerquellen zu vermeiden, bzw. die verf?lschten Daten zu verbessern, wird auf die Methode der Zustandssch?tzung durch Filter eingegangen. Die Arbeit wird in diesem Bezug konkret die Auswertung der Einsetzbarkeit eines Kalman-Filters besprechen. Folglich wird auch dessen Funktionsweise analysiert.

Um eine genauere Sch?tzung zu erhalten, wird das Forschungsziel sich in einem gr??eren Teil auf die Nutzbarkeit des oben genannten Kalman-Filters im Bezug auf die Sensorfusion beziehen. Dabei wird darauf eingegangen, wie die einzelnen Messwerte zusammengeführt und die Fehlerquellen der Sensoren kompensiert werden k?nnen. Um den Rahmen der Arbeit einzuhalten, wird sich auf die Fusion des GPS und der inertialen Messeinheit beschr?nkt.

Nachdem die zugrunde liegende Theorie besprochen wurde, besch?ftigt sich die Arbeit zus?tzlich mit einer konkreten Implementierung eines Kalman-Filters im Rahmen des Avionic Software Engineering Labs der Universit?t Augsburg. Diesbezüglich wird die vorhandene Software für Simulation und Kontrolle benutzt. Um die Wirksamkeit des Filters zu überprüfen, wird ein Vergleich mit der aktuellen Software unter gleichen St?rungssimulationen vollzogen. Zudem wird eine zunehmende Verf?lschung der Daten getestet, um einen Sensor mit Fehlverhalten zu simulieren und die Reaktion des Filters darauf zu beobachten.

?

?

Abstract Execution of Graph-based Test Descriptions In Model-Driven Software Engineering

Masterarbeit, September 2018

Common Model Based Testing (MBT) approaches allow for automatically generated test cases at any stage of software development. However, automatic testing results can usually not be obtained until code artifacts are created and executed. Given the economical need to detect errors as quickly as possible, testing in early stages of model driven software development can be beneficial. In this thesis, a novel approach for abstract execution of test descriptions is presented and prototypically implemented in a framework. Instead of processing contained instructions, the abstract structure of model artifacts is brought to execution. By comparing model graphs of system and test, structural differences can be identified that indicate discrepancies between actual behavior and intended behavior of the System Under Test (SUT). These indicators can be processed and classified to give the tester feedback for early test set assessment and potential problems.

?

?

Implementierung einer automatisierten Flottensteuerung basierend auf einem Nachfragemodell

Masterarbeit, September 2018

?

Modellierung von Feature Trees für die Anwendung von Produktlinien in sicherheitskritischen Systemen

Bachelorarbeit, Juli 2018

Die Fahrzeugindustrie steht mit voranschreitendem technologischen Fortschritt vor wachsenden Herausforderungen hinsichtlich der Konfigurierbarkeit einzelner Fahrzeugmodelle. Kunden k?nnen ihr Fahrzeug bei der Bestellung aus einer Vielzahl von Funktionalit?ten, bzw. Merkmalen (im Folgenden Features genannt) genau so modifizieren, wie sie es am liebsten haben. Viele dieser Features sind sicherheitsrelevant, viele jedoch nicht. Da die Fahrzeuge ausführlichen Sicherheitsanalysen unterzogen werden müssen, ist es wichtig, zwischen sicherheitsrelevanten Features und solchen, die dies nicht sind, unterscheiden zu k?nnen.

?

Im Zuge dieser Arbeit wurde mittels Eclipse-Sirius und EMF ein Tool entwickelt, mit dem Feature-Model-Diagramme modelliert werden k?nnen, die eine Hierarchie und Abh?ngigkeiten der einzelnen Features eines Fahrzeugs darstellen. Innerhalb dieser Diagramme besteht die M?glichkeit, die einzelnen Features als sicherheitsrelevant im Sinne von Safety, Security und Timing (SST) zu markieren. Die Datenstruktur der Feature-Model-Diagramme wurde mit einem bestehenden Tool zur Sicherheitsanalyse mittels eines SST-Diagramms verknüpft, um so einzelne Teilb?ume hinsichtlich ihrer Sicherheit - im Fokus steht hierbei der SST-Teilaspekt Safety - auswerten zu k?nnen, in denen z.B. nichtsicherheitsrelevante
Features vernachl?ssigt werden.

?

?

Konzeption, Implementierung und Absicherung eines Kreuzungs-Assistenten im Kontext autonomer Fahrzeuge

Bachelorarbeit, April 2018

Das Ziel der Arbeit war die Entwicklung eines sicheren Kreuzungs-Assistenten mit der Motivation zukünftig die Anzahl der Verkehrsunf?lle in diesem besonders fehleranf?lligen Umfeld zu senken. Hierzu wurde ein Konzept entworfen, das beschreibt, wie mit der Hilfe von Umgebungsdaten und einem vorgegebenen Fahrwunsch über das Verhalten bei Anfahrt an eine Kreuzung entschieden werden kann. Die ?berlegungen wurden anschlie?end verwendet, um den Kreuzungs-Assistenten als Modell in Matlab/Simulink zu implementieren. Dieses wurde anschlie?end in der Simulationsumgebung IPG Carmaker getestet. Die Ergebnisse zeigen, dass das System den Fahrer erfolgreich bei s?mtlichen Gefahren warnt und dadurch die Sicherheit in Kreuzungen verbessert werden kann.

?

?

Lidar and camera sensor fusion and its implications for object detection, classification and segmentation in autonomous vehicles

Masterarbeit, Februar 2018

The development of reliable and safe autonomous vehicles is one of the most important and challenging research task in computer science and engineering. Most vehicles use a combination of different sensors to perceive their environment and act according to it. However, the fusion of those sensors and their gathered information is often complex and inefficient. This is especially true for two of the most utilized sensors, lidar and camera. Both are often processed independent of each other and don’t employ the possible insight provided by the other sensor. This is especially true in the field of 2D object detection and classification, where the state-of-the-art is dominated by the latest iterations of convolutional neural networks. Although new architectures that unify both sensors in their model architecture have recently emerged, the methods are often complex and hard to adapt towards innovations in image processing. This thesis therefore proposes the use of lidar sensor data as an image input channel. The concept encodes the depth information within the input data, making it independent from the subsequent image processing networks, while utilizing the additional depth information. Two different approaches are hereby proposed, implemented and evaluated. First, the combination of grayscale and depth images, generated by projecting lidar into the 2D image plane. Second, the addition of lidar as a overlay on top of regular RGB images.

?

?

Visuelle Datenflussprogrammierung für eingebettete Systeme

Masterarbeit, Februar 2018

?

?

Recommendation App Entwicklung mit Anbindung an Fitbit

Bachelorarbeit, Februar 2018

Fitness-Tracker und Smartwatches bieten einfache M?glichkeiten zur K?rperdatenerfassung. Durch die Entwicklung einer App wurde überprüft, ob diese K?rperdaten genutzt werden k?nnen um mit einer Fitbit Ionic medizinische Empfehlungen auszugeben. Andere Studien haben nachgewiesen, dass Vorhofflimmern mit hoher Genauigkeit anhand der Herzfrequenz erkannt werden kann. Die zweigeteilte Anwendung führt eine echtzeit Analyse der Pulsdaten durch um eine Frühdiagnose von Vorhofflimmern zu stellen. Dabei nutzt sie zwei statistische Methoden (die Root Mean Square of Successive Differences (RMSSD) und die Shannon Entropy) um Anzeichen von Vorhofflimmern zu registrieren. Daneben wird Stress in Abh?ngigkeit von Ruhepuls erkannt. Die aufgedeckten Limitierungen und Kritikpunkte an der entwickelten Anwendung zeigen, dass sich die Fitbit Ionic derzeit nicht für medizinische Benachrichtigungen eignet. Es wurden zwei Anwendung etwickelt, die Vorhofflimmern und Stress erkennen k?nnen, jedoch keine Echtzeit-Benachrichtigungen liefern.

?

?

威尼斯赌博游戏_威尼斯赌博app-【官网】izinische Sensorfusion mit Hilfe eines Smart Home Automation Tools

Bachelorarbeit, Februar 2018

Das Ziel der vorliegenden Bachelorarbeit war es, eine medizinische Sensorfusion mit Hilfe eines Smart Home Automatisation Tools durchzuführen. Zun?chst wurde unter vielen Tools Home Assistant ausgesucht. Im n?chsten Schritt ging es um die Anbindung medizinischer Ger?te, die Sensorwerte für die Fusion zur Verfügung stellen sollten. Dafür wurde die Anbindung des Fitbit Charge 2 umgesetzt, das die Herzfrequenz für die Sensorfusion liefert. Der zweite für die Sensorfusion ben?tigteWert wurde simuliert. Schlie?lich konnte die Sensorfusion mit Hilfe von Home Assistant realisiert werden.

2017

Evaluation von Microservice-Architekturen: Definition von Metriken und Entwicklung eines Analysetools

Masterarbeit, Dezember 2017

Microservices bezeichnet eine Art, wie Softwareanwendungen als Einheit von unabh?ngigen und eigenst?ndig lauff?higen Services strukturiert werden k?nnen. Microservices sind ein noch relativ neuer Trend, der immer popul?rer wird und h?ufig Verwendung findet. Vorteile sind die strikte Modularisierung, ein unabh?ngiges Deployment einzelner Microservices und die individuelle Skalierbarkeit und Flexibilit?t. Daneben sind die Heterogenit?t des Systems, die Offenheit bezüglich der Integration neuer Microservices und der Schnitt der Microservices sowie das Refactoring über Microservicegrenzen hinweg Herausforderungen. In dieser Arbeit wird das entwickelte Analysetool MAAT - Microservice Architecture Analysis Tool - vorgestellt, das zum einen eine Visualisierung des Microservice-Systems liefert und zum anderen bei der Analyse der Architektur und der Erkennung von Hotspots hilft. Die Daten dazu werden zur Laufzeit des Microservice-Systems erfasst, so dass jederzeit ein aktuelles Modell vorhanden ist und Probleme in der Architektur frühzeitig erkannt und behoben werden k?nnen. Um die Architektur eines Microservice-Systems zu evaluieren, werden Metriken entwickelt, die auf Prinzipien für ein gutes Architekturdesign von Microservice-Systemen basieren und diese messbar machen. Au?erdem wird eine Fallstudie durchgeführt, in der das Analysetool in einem Projekt eingesetzt wird, um das Analysetool und insbesondere die Aussagekraft der Metriken auf die Architektur eines Microservice-Systems zu evaluieren.

?

Implementierung eines Systems zur automatisierten Behebung von Software/Systemst?rungen unter Verwendung einer regelbasierten Entscheidungsmaschine und technische Interaktion mit den beteiligten Komponenten

Masterarbeit, Oktober 2017

?

Entwicklung eines plattformunabh?ngigen und mobilen Tourenmanagers

Bachelorarbeit, Oktober 2017

?

?

Transformation einer modellbasierten REST-Schnittstelle nach Angular

Bachelorarbeit, Oktober 2017

?

?

Funktionale Absicherung auf dem Weg zum autonomen Fahren am Beispiel eines Autobahnpiloten

Masterarbeit, September 2017

?

Kommunikationsprotokolle innerhalb Smart Homes

Bachelorarbeit, September 2017

Gegenstand der hier vorgelegten Bachelorarbeit sind die g?ngigen, unterschiedlichen Kommunikationsprotokolle, die im Bereich Smart Home und innerhalb medizinischer Ger?te Verwendung finden. Ziel dieser Arbeit ist, zu untersuchen, ob medizinische Ger?te in bestehende Smart Home Systeme integriert werden k?nnen, um ein 威尼斯赌博游戏_威尼斯赌博app-【官网】ical Smart Home im Wellbeing-Bereich zu generieren. Dazu wurden Kommunikationsprotokolle miteinander verglichen und ausgew?hlt. Zuletzt werden zwei L?sungsm?glichkeiten der Idee eines 威尼斯赌博游戏_威尼斯赌博app-【官网】ical Smart Homes erl?utert.

?

Aufbau eines Big Data Szenarios und Vergleich von Amazon Web Services, Google Cloud Platform und Microsoft Azure

Masterarbeit, September 2017

?

?

Smart Home Erweiterung durch Internet of Things of 威尼斯赌博游戏_威尼斯赌博app-【官网】ical Devices

Bachelorarbeit, September 2017

In dieser Arbeit wird ein fundierter ?berblick über Internet of Things geschaffen, der aktuelle Forschungsstand auf diesem Gebiet dargestellt und die Potenziale und M?glichkeiten einer Kombination von Smart Home und Internet of Things of 威尼斯赌博游戏_威尼斯赌博app-【官网】ical Devices, die konkrete Anwendungen von Internet of Things sind, mit dem Fokus aufWell-being aufgezeigt. Durch die Kombination k?nnen Verbraucher im eigenen Wohnkomplex kontinuierlich überwacht werden, sodass durch die Auswertung der gesammelten Informationen Empfehlungen und Warnungen im Hinblick auf eine gesunde Lebensweise ausgesprochen werden k?nnen. Dadurch kann Well-being unterstützt werden. Auf Basis einer ausführlichen und kritischen Literaturrecherche werden die Konzepte Internet of Things, Smart Home und Internet of Things of 威尼斯赌博游戏_威尼斯赌博app-【官网】ical Devices aufgearbeitet und vorgestellt. Im letzteren werden medizinische Ger?te ausgew?hlt und n?her beschrieben, die bei der Erweiterung des Smart Homes eingesetzt werden.

?

?

HIGHLY SCALABLE E-COMMERCE SYSTEM BASED ON MICROSERVICES AND EBS

Masterarbeit, Juli 2017

?

?

Formale Spezifikation von Analyseanforderungen im Enterprise Architecture Management

Masterarbeit, Juli 2017

EAM ist nicht Selbstzweck, sondern ein ganzheitliches Mittel, um die Gesch?ftsf?higkeit von Unternehmen zu verbessern. Das Enterprise Architecture Management beginnt daher zun?chst damit, den aktuellen Zustand, also die Ist-Architektur, eines Unternehmens zu erfassen. Diese Architektur wird dann untersucht, um Schwachstellen zu identifizieren und aus den so gewonnenen Erkenntnissen eine Soll-Architektur?zu definieren. Aus dieser leitet der Enterprise Architect dann eine Roadmap ab, anhand derer er das Unternehmen Schritt für Schritt zu seiner Soll-Architektur begleitet. Gerade das Untersuchen von Unternehmensarchitekturen ist jedoch eine sehr gro?e Herausforderung: Unternehmensarchitekturen stellen die gesamten Bestandteile einer Firma dar und sind deshalb sehr komplex. Automatisiert ausführbare Analysen sind für einen Unternehmensarchitekten damit ein wertvolles Werkzeug, um Zusammenh?nge und daraus resultierende Schwachstellen einer Firma zu erkennen und entsprechend handeln zu k?nnen.

Beispielsweise k?nnen über EA-Analysen die Auswirkungen einer Ver?nderung in?der Architektur bestimmt oder Wahrscheinlichkeiten für den Ausfall bestimmter Systeme errechnet werden. Aus verschiedenen Gründen sind EA-Analysen derzeit jedoch nicht besonders weit verbreitet: Einerseits wurde in der Forschung noch nicht besonders viel dafür getan und andererseits stellen EA-Analysen oft komplexe Anforderungen an die zu analysierenden Modelle.

In dieser Arbeit m?chten wir uns genauer mit diesem zweiten Aspekt besch?ftigen. Wir werden uns verschiedenste Analyseans?tze ansehen und dabei die Anforderungen herausarbeiten, die die Analysen an die jeweils analysierte Unternehmensarchitektur stellen. Basierend auf diesen ?berlegungen werden wir einen Ansatz zum Beschreiben solcher Anforderungen entwickeln und abschlie?end ein Tool implementieren, welches eine Unternehmensarchitektur automatisch auf das Erfüllen so beschriebener Anforderungen prüfen kann.

?

?

Klassifikation von vitalen Sensoren - Transformation von Big Data am Fallbeispiel eines medizinischen Recommender Systems im Automotive Bereich

Masterarbeit, Juni 2017

In Deutschland sind in den letzten 5 Jahren im Schnitt 3.400 Personen pro Jahr bei Verkehrsunf?llen gestorben [mon17]. Die h?ufigsten, natürlichen Todesursachen waren 2014 die Durchblutungsst?rung des Herzmuskels, Herzschw?che und akuter Herzinfarkt [Sta17a]. Alle drei Ursachen k?nnen medizinisch überwacht werden. Die übliche medizinische ?berwachung findet nach wie vor in Krankenh?user, Pflegeheimen oder Reha Kliniken statt. In Fahrzeugen ist die medizinische ?berwachung fast nicht vertreten, obwohl 57% der Deutschen ihr Fahrzeug fast t?glich nutzen [pkw17]. Diese Arbeit widmet sich der st?rkeren Integration medizinischer ?berwachung im Automotive Bereich. Das Ziel der Masterarbeit ist es, ein medizinisches Recommender System zu erstellen, welches mittels vitaler Sensoren in der Lage ist, den oder die Insassen gesundheitlich zu überwachen und die gemessenen Werte an unterschiedlichen Anzeigeger?ten darzustellen. Au?erdem sollen Notrufe bei Unf?llen oder kritischen Gesundheitszust?nden automatisch versandt werden. Dazu wurden verschiedene medizinische Sensoren mit ihren gemessenen Biosignalen und Messorten am K?rper kategorisiert und untersucht. Bei der Verwendung von Sensoren und Wearables lag der Fokus auf einer kabellosen Anbindung. Diese soll die Bewegungsfreiheit des Nutzers gew?hrleisten. Das System zeigt die Aktivit?ten der einzelnen Bestandteile auf einem abstrakten Niveau und wurde auf Basis aktuell vorhandener Wearable Technologie und Sensorik erstellt. Abschlie?end wurden m?gliche Erweiterungen und Verbesserungen für eine zukünftige Entwicklung, sowie Erkenntnisse zusammengetragen. iii

?

Towards Scalable Object Sharing for Robotics

Masterarbeit, April 2017

?

Analyse und Implementierung der Architekturstilkombination Model-Driven Development und Domain-Driven Development

Masterarbeit, April 2017

?

Entwicklung einer modularen Plattform zur Erfassung und Verarbeitung heterogener Sensordaten in Python

Masterarbeit, April 2017

Sensoren befinden sich überall. Moderne Fahrzeuge sind beispielsweise mit diversen sensorbasierten Assistenzsystemen ausgestattet und bilden die Grundlage autonomen Fahrens. Auch unsere Umwelt oder Haushaltsger?te und sogar der Mensch werden mit dem IoT oder mithilfe sogenannter Wearables erfassbarer. Zahlreiche weitere Beispiele aus Forschung, Industrie, dem Finanzwesen aber auch dem Umweltschutz und Gesundheitswesen belegen ein wachsendes und berechtigtes Interesse an der Erfassung und Auswertung dieser allumfassenden Daten. Die bisherigen technischen M?glichkeiten sind weit entwickelt, aber gleichzeitig stark limitiert auf einen eingeschr?nkten Teilbereich. Angesichts der vielf?ltigen Verwendungszwecke scheint eine einheitliche M?glichkeit der bereichsübergreifenden Datenerfassung und Analyse von Sensoren und Datenquellen sinnvoll und wichtig.
Im Rahmen dieser Masterarbeit wurde das Software-Framework SDPP entwickelt, welches hochdynamisch Messwerte heterogener Sensorik erfassen kann und damit das Grundgerüst für beliebige sensorbasierte Anwendungen bildet. Für Entwickler und Wissenschaftler wurde eine neuartige Grundlage geschaffen, ohne technische Kenntnisse über die Interna ben?tigter Sensoren, auf historische und Echtzeitdaten beliebiger Quellen zuzugreifen und darauf umfassende Analysen durchzuführen. Durch die Umwandlung der Datenquelle in standardisierte Sensorstreams und die Verarbeitung mittels einer Pipeline wird zudem ein bestm?glicher Softwareentwicklungsprozess garantiert. Weiter wird die Datenverarbeitung durch die Bereitstellung relationaler Operatoren unterstützt.
Die Arbeit wird die Entwicklung des Frameworks begleiten und dabei relevante Aspekte und Implementierungsentscheidungen hervorheben. Mittels einer Fallstudie wird au?erdem ein konkreter Anwendungsfall beleuchtet und somit die Funktion des Frameworks validiert.

?

?

Indoor Navigation mit Smartphone Sensorik

Masterarbeit, M?rz 2017

?

?

Pr?vention von Vorhofflimmern durch Merkmalsextraktion mit Hilfe von Deep Learning

Masterarbeit, M?rz 2017

Das Ziel dieser Masterarbeit ist die Entwicklung eines Versuchsaufbaus, mittels Deep Learning Technologien, zur Detektion von Vorhof?immern. Dazu wurden EKGs der Website Physionet herangezogen, um auf deren Basis die F?higkeit zu erlernen, Vorhof?immern erkennen zu k?nnen. Zus?tzlich bietet diese Arbeit einen ?berblick über die Grundlagen des maschinellen Lernens, medizinische Basiskenntnisse des Herzens und eine Erl?uterung der Herzkrankheit Vorhofflimmern. Mit dem entwickeltem Versuchsaufbau konnte eine Genauigkeit von 91 Prozent bezüglich der Vorhersagen erzielt werden. Das trainierte Modell wird im Rahmen dieser Arbeit zusammen mit einer Anwendung zur weiteren Verwendung bereitgestellt.

?

Legibility at a Glance – Concept, Design and Evaluation of a Mobile Platform for Conducting Behavioral Research

Masterarbeit, Februar 2017

?

Komplexe Suchfunktionen mit modernen Datenbanksystemen

Bachelorarbeit, Januar 2017

?

Generierung und Test sicherheitskritischer Systeme mittels des AADL Error Model Annex

Masterarbeit, Januar 2017

Mit der Architecture Analysis and Design Language (AADL) kann die Architektur von sicherheitskritischen Echtzeitsystemen vor der Entwicklung spezi?ziert und analysiert werden. Durch die Analyse werden sp?te Nacharbeiten vermieden und so Risiken verringert und Kosten gespart. Eine Erweiterung der AADL ist der Error Model Annex. Dieser bietet zus?tzlich die M?glichkeit, Fehlerereignisse und Fehlerzust?nde von Modellkomponenten sowie Fehlerpropagierungen zwischen den Komponenten zu beschreiben. In dieser Arbeit wird eine Methode vorgestellt, mit dem aus dem Error Model Annex sowohl ausführbarer Code als auch Unittests für die Java Real-Time-Spezi?kation generiert werden k?nnen.

?

?

Erarbeitung einer Zertifizierungsgrundlage zur Sicherstellung der Informationssicherheit im Anlagennetz eines (mittelst?ndischen) Maschinenbauunternehmens auf Basis von Industrie 4.0

Masterarbeit, Januar 2017

2016

On-Site-Deployment von Ruby-on-Rails-Anwendungen

Masterarbeit, Dezember 2016

?

Konzeptionierung und Realisierung eines Worklist-Handlers für Orchestra

Bachelorarbeit, Oktober 2016

?

?

Integration von Modellbasiertem Testen in das Vorgehen nach Scrum

Bachelorarbeit, Oktober 2016

Durch die heutigen M?glichkeiten in der Softwareentwicklung werden IT-Projekte immer umfangreicher und komplexer. Dabei darf allerdings die Qualit?t des Produktes nicht verloren gehen, auf was sowohl das Vorgehen nach Scrum, als auch Modellbasiertes Testen Wert legen.In der vorliegenden Bachelorarbeit wird untersucht, ob und in welcher Art und Weise die Technologie des Modellbasierten?Testens in den Scrum-Prozess eingebracht werden kann. Dafür werden zun?chst?die Grundlagen beider Themen vorgestellt. Es stellt sich heraus, dass eine Herangehensweise aus herk?mmlichen Entwicklungsprozessen wie dem V-Modell?nicht herangezogen werden kann. Die Agilen Werte, der Aufbau des Scrum-Teams und die zyklische Vorgehensweise lassen sich allerdings auf eigene Art?und Weise mit Modellbasiertem Testen vereinen. Einige M?glichkeiten werden?vorgestellt, analysiert und eine dieser anhand eines Fallbeispiels genauer betrachtet.

?

Design and Implementation of a System for Password-less Authentication against a Third-Party Service using Mobile Devices

Masterarbeit, September 2016

?

Design und Implementierung eines plattformübergreifenden Test-Frameworks

Masterarbeit, Juli 2016

?

Behavioral Modeling of Real-Time Linux Scheduling

Masterarbeit, Juli 2016

?

A graphical editor for AADL with Sirius

Masterarbeit, M?rz 2016

In this Thesis we are going to build a new graphical editor for The Architecture Analysis & Design Language (AADL) with Sirius.
AADL is available as EMF and Xtext projects that Sirius uses as resources to be able to map the grammar of the language to a graphical representation in form of an editor.

?

Self-Service Business Intelligence durch Software as a Service - Konzeption und Entwicklung

Masterarbeit, M?rz 2016

?

Modeling and Analyzing Safety, Security and Real-Time Requirements of Embedded Systems

Masterarbeit, M?rz 2016

Safety critical real-time embedded systems are subject to numerous safety requirements. Identifying and analyzing potential safety hazards usually necessitates recognizing potential security vulnerabilities as well as considering real-time constraints. In most instances these requirements will entail considerable changes in design, implementation and certification of the safety critical systems. However, the identified objectives are often partially con- flicting. Therefore, it is crucial to reveal and resolve these conflicts during the development process. This can be achieved with a combined safety, security and timing risk assessment, based on the Failure Mode and Effects Analysis (FMEA). This master thesis aims to facilitate informed decision making and tradeoff between conflicting requirements, while ensuring that safety, security and timing risks are as low as reasonably practical. We will provide a practically usable prototype of a graphical editor, implemented with Eclipse Sirius and the Eclipse Modeling Framework (EMF). The Eclipse plug-in will allow structuring and comparing objectives as well as trading off and tracing potential alternative solutions, by means of the Analytic Hierarchy Process (AHP). Additionally, a case study on the safety of deliver-by-drone will be presented. This case study as well as the subsequent evaluation will show that the prototype is sound and practically useful.

?

Industrie 4.0: Use Cases und Predictive Analystics Plattformen – Evaluierung und prototypische Realisierung

Masterarbeit, Januar 2016

?

Anwendung eines Data-Mining Prozessmodells zur Erkennung von Kilometerstandsmanipulationen

Masterarbeit, Januar 2016

2015

Auslesen und Interpretation von Mercedes-spezifischen Motorparameterwerten auf einer mobilen Plattform

Bachelorarbeit, Dezember 2015

?

Identifikation und Formalisierung von Methodenbausteinen für das Enterprise Architecture Management

Masterarbeit, November 2015

Um im Gesch?ftsleben der Zukunft bestehen zu k?nnen, ist es für die Verant- wortlichen von N?ten, vorausschauend zu agieren. Damit IT-Verantwortliche fundierte Entscheidungen treffen k?nnen, brauchen sie eine übergreifende Sicht auf die Systeme des Unternehmens in ihrem Zusammenspiel. Nur so ist ein strategisches Management der IT-Landschaft m?glich. Das Fundament hierfür liefert das Enterprise Architecture Management. Neben der Schaffung von Transparenz in der IT-Landschaft und der F?rderung des Business-IT-Alignments kann das Unternehmen mithilfe eines Enterprise Architecture Managements Dokumentationspflichten vereinfachen und Wertsteigerungspotenziale identifizieren. Das EAM liefert Methoden, um den tats?chlichen Ist-Zustand, den anvisierten Soll-Zustand sowie Migrationspl?ne der Unternehmensarchitektur zu beschreiben.

Es gibt bereits viele verschiedene Methoden aus Wissenschaft und Praxis, die Unterstützung bei der Ein- und Durchführung eines EAM bieten. Diese sind jedoch sehr komplex und k?nnen meist aufgrund von unternehmensspezifischen Besonderheiten nicht direkt übernommen werden. Auch ist es nur schwer m?glich, diejenigen Bausteine aus den einzelnen Methoden anzuwenden, die für das Unternehmen passen, da sich die Methoden in ihrem Umfang und ihrer Beschreibung stark unterscheiden.

Aus diesem Grund soll mit dieser Arbeit ein erster Schritt zur besseren Vergleichbarkeit der Methoden gemacht werden. Hierfür werden bereits exisitierende Unternehmensarchitekturmethoden in der Literatur identifiziert und auf deren Basis die wichtigsten Bausteine einer Best practice-Methode herausgearbeitet, die anschlie?end in einem Metamodell formalisiert werden. Mithilfe diesem Metamodell werden alle identifizierten Methoden in einem Methodenkatalog beschrieben. Dieser soll bspw. den EAM-Einführungsprozess vereinfachen, indem es Anwendern erm?glicht, diejenigen Bausteine aus den unterschiedlichen Methodenans?tzen zu w?hlen, die ihrer individuellen Situation am ehesten gerecht werden.?

?

Rapid Enterprise Application Development in the Cloud by the Example of Force.com

Masterarbeit, November 2015

?

Identifikation und Absicherung von Fahrzeugmanipulationen

Masterarbeit, November 2015

?

Transformation from a Product House to a SaaS Provider from the Viewpoint of Enterprise Architecture Management by the Case Example MID GmbH

Masterarbeit, November 2015

Software-as-a-Service (SaaS) has emerged as a new, more accessible and flexible solution of how to provide software to customers. In order to compete successfully within their domain software providers have to take part in transformation processes not only for aligning their business to new developments but also in order to lead by establishing these. A transformation within an enterprise can be guided by Enterprise Architecture Management techniques. By providing a model description of the current and the target Enterprise Architecture transformation steps can be derived while it is always transparent which enterprise components will be affected. In this thesis an Enterprise Architecture for a Software as a Service provider will be presented which shows the business and operation requirements for the service product delivery. The methodology describes how to acquire the present and the targeted architecture in the right scope and how to elaborate transformation options towards the target. A case study at modeling software enterprise MID GmbH is conducted applying the presented method. Its Baseline Architecture and Target Architecture are modeled with regard to the presented SaaS Provider Architecture. This information is applied to derive gaps and critical transformation aspects. Recommendations for the enterprise’s development conclude the case study.?

?

Generate RTSJ out of AADL Software Description

Masterarbeit, November 2015

The complexity of embedded systems has increased rapidly over the last years. If this trend is compared with other software systemy, such as desktop applications or operating systems, one recognizes that they underwent a similar change five to ten years ago. This thesis deals with the adoption of existing solutions in the aforementioned areas to the embedded area. In particular, it deals with the application of MDSD and high-level languages to control complexity better. The chosen modelling language is AADL and Java in combination with RTSJ as the high-level language. Therefore, a mapping from AADL to RTSJ and the consequential generation is presented. This allows the design of embedded systems with AADL to generate efficient Java code which corresponds to the designed model.

?

Konzeption und Entwicklung eines ReqIF-Editors und Vergleich mit herk?mmlichen Spezifikationsmechanismen für Anforderungen

Bachelorarbeit, Oktober 2015

?

E/E-Landkarten - Quantifizierung von Software- und Hardwarearchitektur im Automotive-Umfeld zwecks Visualisierung

Masterarbeit, Oktober 2015

?

Anforderungen an und Definition von einer Analysensprache für das Enterprise Architecture Management

Masterarbeit, Oktober 2015

Das Enterprise Architecture Management (EAM) ist eine seit 20 Jahren wachsende Disziplin zur Unternehmensgestaltung. Um eine ideale Architektur der Informationssysteme und -flüsse entwerfen zu k?nnen, müssen die Soll- und Ist- Situation analysiert werden. Mit Hilfe von EAM Analysen kann der Fokus auf verschiedene Aspekte gelegt werden. Die verschiedenen Ziele einer solchen Analyse ben?tigen dementsprechend verschiedene Ans?tze. Um das jeweilige Ergebnis erzielen zu k?nnen, unterliegt jeder Analysetyp verschiedenen Anforderungen. Jedoch existiert aktuell kein generischer Analyse-Ansatz, der alle Typen und somit alle Ziele beinhaltet. Diese Arbeit bietet zu Beginn eine grundlegende ?bersicht über Enterprise Architecture Management und seine Analysen. Hierdurch wird ein gemeinsames Verst?ndnis für EAM und den Zweck von Analysen geschaffen. Anschlie?end wird gekl?rt, was für verschiedene Analyse-Kategorien existieren, welche Anforderungen die verschiedenen Analyse-Kategorien an eine Analyse-Sprache stellen und wie eine m?gliche Spezifikation einer solchen Sprache aussehen k?nnte. Diese Arbeit identifiziert daher alle ben?tigten Anforderungen der unterschiedlichen Analyse-Kategorien. Hierfür werden zuerst verschiedene Analyse-Kategorien anhand der Ziele, Konstrukte und Ergebnis-Arten in fachlicher sowie technischer Richtung ermittelt. Anschlie?end werden mit Hilfe einer ausführlichen Literaturrecherche und einer Analyse der Ans?tze notwendige Anforderungen herausgearbeitet. Diese werden auf Korrektheit und Notwendigkeit geprüft bevor die abschlie?ende Zuordnung erfolgt. Abschlie?end wird für den ersten Teil eine Matrix erstellt, die alle umsetzbaren Kategorie-Kombinationen zeigt und die Grundlage für die weiteren Ergebnisse bildet. Im zweiten Teil dieser Arbeit wird, basierend auf den Ergebnissen der Anforderungs-Analyse, eine Metasprache entworfen, die alle ermittelten Kategorien und ihre ben?tigten Anforderungen enth?lt. Diese wird innerhalb eines 3-Phasen-Systems entworfen. Nach der Festlegung der Analyse-Kategorie und des erwünschten Ziels wird ein Metamodell entworfen, das auf einem abstrakten und konkreten Syntax basiert. Dieser Aufbau wird in mehreren Iterationen überprüft. Eine abschlie?ende Evaluation beinhaltet die Durchführung und ?berprüfung der Sprache. Abschlie?end werden die Grenzen und Vorteile der Sprache aufgezeigt und ihre Integration mit Tools beschrieben.

?

Real-Time Knowledge in NoSQL Databases: Identifying Key Performance Drivers on Heterogeneous Private Wealth Allocations Stored in a MongoDB

Masterarbeit, Oktober 2015

?

Integration softwarebasierter Automatisierungsmethoden in eine Test-ECU

Masterarbeit, September 2015

Die Zunahme an komplexen Softwarefunktionen in Fahrzeugen ist einem hohen Qualit?tsanspruch der Automobilhersteller gegenübergestellt. Um in Verbindung mit dem Zeit- und Kostendruck der Industrie diesem Anspruch auch in Zukunft zu genügen, wird derzeit in neuen Methoden der Testautomatisierung geforscht. Bisherige Methoden verifizieren eine Aktions-/Reaktionskette im verteilten System. An manchen zu testenden Komponenten scheitert dabei eine volle Automatisierung an einer manuell zu initiierenden Aktion. Eine L?sung für dieses Problem ist die Entwicklung einer Sensorwertsimulation. In einer vorhergehenden Arbeit wurde ein Software-Prototyp auf der Basis von AUTOSAR entwickelt, der eine hardwarenahe Simulation von Kundeneingaben erm?glicht. In dieser Arbeit wurde er neuen Anforderungen gegenübergestellt und für den Praxiseinsatz weiterentwickelt. Die entstandene Softwarel?sung l?sst sich mit Hilfe eines SIM-Master/Agents-Konzepts in ein verteiltes System integrieren und erm?glicht die getaktete Simulation von Sensorwerten in Steuerger?ten. Dabei werden die zu simulierenden Hardwaresequenzen vom SIM-Master aufbereitet und anschlie?end an teilnehmende SIM-Agents gesendet. Da alle Testdaten vor Beginn der Simulation vollst?ndig übertragen werden, wird die laufende Simulation nicht durch weitere Simulationsdaten beeinflusst. Bei der Weiterentwicklung wurde auf eine generische L?sung geachtet, die mit der Simulation von digitalen Eingaben geprüft wurde. Eine Validierung liefert den Nachweis, dass die simulierten Kundeneingaben, in Abh?ngigkeit der Zeit, reproduzierbar sind. Ferner wird diskutiert wie diese Technik zum Standard werden kann.

?

Gemeinsame Durchführung von automatisierten End-to-End Tests bei Web- und Mobile-Anwendungen: Analyse und Entwurf einer dom?nenspezifischen Sprache

Masterarbeit, September 2015

Qualit?tssicherung ist ein fester Bestandteil der Softwareentwicklung. Eine bekannte Disziplin der Qualit?tssicherung ist der Softwaretest. Zwischen 30-50% der Gesamtkosten eines Softwareprojekts sind dem Testen zuzuschreiben. Eine M?glichkeit, um Kosten einzusparen ist die Testautomatisierung. Bis auf wenige kommerzielle Tools sind Frameworks zur Automatisierung der Testdurchführung oftmals auf eine Anwendungstechnologie beschr?nkt. Ist eine Anwendung alsWeb- und als Mobile-Version implementiert, so müssen im Zuge der Testautomatisierung zwei Testskripte geschrieben werden, obwohl die gleichen Funktionalit?ten getestet werden. An dieser Stelle setzt die Problemstellung der Masterarbeit an. Das Ziel dieser Arbeit stellt eine dom?nenspezifische Sprache zur gemeinsamen, automatisierten Durchführung von End-to-End-Tests bei Web- und Mobile-Anwendungen dar. Anhand einer konkreten Beispiel-Anwendung wird zun?chst eine Dom?nenanalyse für getrennte, automatisierte End-to-End-Tests bei Web- und Mobile-Anwendungen durchgeführt. Das Ergebnis sind Gemeinsamkeiten und Unterschiede der beiden Problemdom?nen. Mit Hilfe der Vergleichsergebnisse wird ein Modell entworfen, auf dem die DSL basiert. Darauf aufbauend werden eine fachlich und eine technisch orientierte konkrete Syntax und eine Methode zur Codegenerierung entworfen. Eine Evaluierung wird anhand einer prototypischen Implementierung als interne DSL vorgenommen.

?

Entwicklung einer Methode für die Migration von Stammdaten in ERP Systemen

Masterarbeit, August 2015

Die Migration von Daten und v.a. Stammdaten ist eine komplexe Aufgabe, bei der verschiedene Aspekte berücksichtigt werden müssen. Durch gro? angelegte Projekte wie einem globalen Einführungsprojekt wird die Komplexit?t verst?rkt. Da bisher in Wissenschaft und Praxis diese konkrete Fragestellung nicht ausreichend berücksichtigt wurde, will diese Arbeit einen Ansatzpunkt anhand einer eigens entwickelten Methode hierfür thematisieren. Mit Hilfe des Design Science wird eine situative Methode mit konstruktionsbasiertem Ansatz aus dem Methoden-Engineering erarbeitet. Abschlie?end folgt in Zusammenarbeit mit einem globalen Unternehmen die Evaluation der erarbeiteten Methode am Beispiel einer Stammdatenmigration in SAP ERP-Systeme und es werden hierbei verschiedene, der Praxis dienliche Dokumente ausgewiesen.?

?

Driver Behavior Modeling Using Hidden Markov Models

Masterarbeit, August 2015

?

Evaluation and implementation of cryptographic operations in web applications

Bachelorarbeit, August 2015

?

Best-practices im Unternehmensarchitekturmanagement

Masterarbeit, Juli 2015

Die Dokumentation von Erfahrungen, die w?hrend der Projektarbeit erarbeitet wurden, sowie die Ausarbeitung von Vorgehensweisen und Komponenten, die sich in der Vergangenheit bereits bew?hrt haben, stellt folglich einen wesentlichen Beitrag dar, bestehende Ressourcen für zukünftige Entwicklungen effizient einzusetzen. Die geforderte Dokumentation von profitablen Erfahrungswerten für zukünftige Projekte, kann in Form von Mustern erreicht werden. Um eine konsistente Sammlung von Mustern zu erreichen, ist es notwendig diese in einem formalisierten Schema zu erfassen. Somit kann dieser Erfahrungsschatz auch unerfahrenen Nutzern und Mitarbeitern, die neu integriert werden sollen, zug?nglich gemacht werden. Die Anwendung dieser Muster in Folgeprojekten, erh?ht in der Regel die Aussicht auf einen erfolgreichen und effektiven Abschluss. Im Bereich der Softwarearchitekturen finden Muster seit geraumer Zeit eine gro?e Verbreitung und werden vielfach eingesetzt, um Architekten und Entwickler beim Entwurf und der Realisierung effizienter Softwarearchitekturen zu unterstützen. Im Bereich EAM befinden sich Muster noch am Anfang ihrer Entwicklung. Folglich fehlt es zum momentanen Zeitpunkt noch an einer anerkannten und verbreiteten Definition, was unter dem Begriff EAM Muster zu verstehen ist, welche Bestandteile ihre Dokumentation umfassen soll und wie Muster miteinander in Verbindung gesetzt werden, um als Referenz zur Verfügung zu stehen. Diese Aspekte umfassen insbesondere den Umstand, dass für EAM Muster noch keinerlei Standardsammlung existiert und deren Interpretation somit auch in der Literatur stark variiert. Die Arbeit besch?ftigt sich daher mit der Anwendung von Mustern speziell im Kontext des EAM und stellt dazu folgende Themenbereiche in den Vordergrund:

  • Definition des Begriffs Muster im EAM und Abgrenzung zu anderen Bereichen.
  • Vorstellung von State-of-the-Art Mustersammlungen.
  • Evaluation der Mustersammlungen.
  • Vorschl?ge zur konsistenten Dokumentation von Mustern im EAM.

?

Analyse und Bewertung von Frameworks zur Integration von mobilen Anwendungen im Fahrzeug anhand einer Android-basierten Implementierung

Masterarbeit, Juli 2015

?

Konzeption und prototypische Implementierung einer Smartphone App für das Sportportal Sportheon unter dem Aspekt der Performanceoptimierung

Masterarbeit, Juni 2015

?

Konzeption eines kontextsensitiven Systems zur Unterstützung mobiler Gesch?ftsprozesse

Masterarbeit, April 2015

Die vorliegende Arbeit befasst sich mit der Konzeption eines kontextsensitiven Systems zur Unterstützung mobiler Gesch?ftsprozesse. Hinsichtlich dieses Zieles erfolgt eine vertiefte Betrachtung und Darstellung der Kernelemente und Kernaufgaben kontextsensitiver Systeme, welche für die Konzeption eines kontextsensitiven Systems ben?tigt werden. Zudem werden Konzepte bestehender Systeme in der derzeitigen Forschung betrachtet. Anschlie?end werden M?glichkeiten und Anwendungsf?lle zur Unterstützung mobiler Gesch?ftsprozesse durch kontextsensitive Systeme dargestellt sowie Probleme betrachtet und bestehende L?sungen analysiert. Basierend auf den erarbeiteten Ergebnissen wird ein kontextsensitives System zur Unterstützung mobiler Gesch?ftsprozesse durch kontextsensitive, mobile Applikationen auf Basis von kontextsensitiven Diensten konzipiert. Es folgt die Er?rterung der prototypische Realisierung von essentiellen Teilen des Systems. Abschlie?end wird das konzipierte System evaluiert und Unterschiede zu bestehenden L?sungen aufgezeigt. Das konzipierte System zeichnet sich hierbei durch eine hohe Adaptionsf?higkeit, Flexibilit?t, Wiederverwendbarkeit und Skalierbarkeit aus. Zudem hat das konzipierte Systeme den n?tigen Einfluss auf die essentiellen Kernelemente einer mobilen, kontextsensitiven Applikationen (wie Applikationsdienste, Applikationsdaten und Applikationspr?sentation) und erm?glicht die Integration und Interoperabilit?t dafür ben?tigter Komponenten und Systeme, um mobile Gesch?ftsprozesse durch kontextsensitive, mobile Applikationen zu unterstützen.

?

?

Techniken für die Navigation mit RGB Kameras

Masterarbeit, April 2015

?

Automatische Annotation von Bilddaten mit ALTO Metadaten

Bachelorarbeit, April 2015

Bachelorarbeit, April 2015 Da die Digitalisierung von Dokumenten nach wie vor an Interesse gewinnt, rückt Software zur automatischen Erkennung von Text, sog. OCR-Software, immer mehr in den Vordergrund. Da viele Programme allerdings keinerlei Rücksicht auf den Aufbau eines Dokuments nehmen, sind zus?tzliche Verfahren n?tig, um den Inhalt eines Dokumentes seinem Layout entsprechen analysieren zu lassen. In dieser Arbeit wird ein Verfahren zur Analyse eines Dokumentes, das in Form eines Bildes vorliegt, entwickelt, welches Informationen über das Layout in dem Analyzed Layout and Text Object - Format ablegt. Dabei wird das Bild in ein neigungsfreies Bin?rbild umgewandelt, daraufhin dessen Pixel zur Unterscheidung von Text, Grafik und Strukturelementen klassifiziert und final zusammengeh?rige Regionen bestimmt, die das Layout beschreiben.

?

Formulierung von Zielen im Rahmen von Unternehmensarchitekturen

Masterarbeit, M?rz 2015

Unternehmensarchitekturen (EA) gelten heute für viele Unternehmen als notwendiges Mittel, um die Gesch?ftsziele zu erreichen. Das Management der Unternehmensarchitektur (EAM) soll das Zusammenspiel der IT und der Gesch?ftsprozesse steuern. Gleichzeitig erhoffen sich alle Beteiligten ebenfalls einen Nutzen aus der Unternehmensarchitektur. Die Ziele dieser Stakeholder sollen deshalb transparent in der Unternehmensarchitektur abgebildet werden. Hierfür stehen lediglich Ans?tze zur Verfügung, die jedoch nicht ausreichend sind. In dieser Arbeit werden auf Grundlage der Literatur notwendige Eigenschaften von Zielen und Kennzahlen ermittelt. Diese Attribute werden verwendet, um ein umfassendes Metamodell zu erstellen. Dieses Metamodell dient der Modellierung von pers?nlichen Zielen und Organisationszielen im Kontext einer Organisation, die über eine Unternehmensarchitektur verfügt.

?

Entwicklung eines integrierten Managementsystems zur Steigerung der Workflow-Effizienz

Bachelorarbeit, M?rz 2015

In der Firma besteht ein enormer Verwaltungsaufwand in den Bereichen Provisionsabrechnung, Controlling und Rechnungswesen. Das Ziel dieser Bachelorarbeit ist die systematische und fundierte Durchführung von Requirements Engineering und die Erstellung einer Anforderungsspezifikation für eine Courtage-Verwaltungssoftware, die den Courtage-Verwaltungs- und Abrechnungsprozess teilautomatisiert sowie den Kosten- und Zeitaufwand erheblich senkt. Dafür wird zun?chst die theoretische Grundlage geschaffen: Wichtige Begriffe werden definiert und die Entwicklung hin zum modernen Requirements Engineering beleuchtet. Anschlie?end werden typische Herausforderungen eines RE-Prozesses dargelegt und Herangehensweisen zum Ermitteln, Dokumentieren und Prüfen von Anforderungen vorgestellt. In der Folge wird die praktische Anwendung dieser theoretischen Grundlagen im Praxisprojekt in der Firma beschrieben. Dabei werden zun?chst der Ist-Zustand und das Projektziel erl?utert. Nach einer Zusammenfassung der aufgetretenen Herausforderungen wird das Vorgehen vor Ort beschrieben. Dies beinhaltet eine Analyse der Stakeholder, der Systemumgebung und der Prozesse sowie die eigentliche Erstellung der Anforderungsspezifikation. Die erreichten Vorteile für die Firma durch die zukünftige Software sind eine Teilautomatisierung und enorme Vereinfachung des relevanten Prozesses und die Verbesserung der Qualit?t und Flexibilit?t von Statistiken und den Auswertungen auf Basis der zu erfassenden Daten.

?

Evaluation and implementation of remote changes to features of installed software at runtime

Bachelorarbeit, M?rz 2015

?

Sicherheitskonzept für Vollautomatisiertes Fahren

Bachelorarbeit, M?rz 2015

?

Modellbasierter Test von Automotive Software

Masterarbeit, Februar 2015

In dieser Arbeit wird ein modellbasierter Test für Automotive Software entworfen. Ziel ist es zun?chst eine Testmethodik zu gestalten, in der die Testerstellung auf leicht verst?ndlichen und wiederverwendbaren Modellen beruht. Anschlie?end erfolgt eine prototypische Umsetzung zu einem Testmodellierungs-Framework. Im Fokus steht hier eine hohe Automatisierung des Testablaufes, von der Testfallerzeugung bis zur konkreten Testausführung. Dies wird unter anderem durch die Unterstützung des AUTOSAR Softwarestandards realisiert.

?

A Cloud-Based Data Management Platform for Impact Analysis

Masterarbeit, Februar 2015

?

Aggregation und Integration von Modelldaten in Unternehmensarchitekturen

Masterarbeit, Januar 2015

Unternehmensarchitekturen werden aufgrund steigender Verzahnung von Gesch?ft und IT und immer komplexer werdender Strukturen zu einer Notwendigkeit innerhalb einer Organisation. Obwohl eine Vielzahl von Frameworks diesbezüglich existiert, wird die Umsetzung bzw. Modellierung meist vernachl?ssigt und sich rein auf den Inhalt beschr?nkt. Oft verfügen Organisationen bereits über dokumentierte Prozesse oder Strukturen von Soft- und Hardware, die jedoch nicht integriert betrachtet werden k?nnen. Die Erkennung von Zusammenh?ngen ist somit nicht m?glich. Au?erdem verfügen diese Modelle meist über eine zu feine Detaillierung, sodass sie für eine Verwendung innerhalb einer Unternehmensarchitektur nicht geeignet sind. Von gro?em Vorteile w?re es jedoch, diese Modelle bzw. Elemente der Modelle in eine Unternehmensarchitektur integrieren zu k?nnen. Im Rahmen dieser Arbeit wird sich mit den Notationen BPMN, SoaML und UML besch?ftigt und ihre F?higkeit zur Darstellung und Integration in eine Unternehmensarchitektur untersucht. Die Notationen stehen für jeweils eine Teilarchitektur einer Unternehmensarchitektur (BPMN - Gesch?ftsarchitektur, SoaML - Anwendungsarchitektur, UML - Technologiearchitektur). Der Fokus richtet sich dabei zun?chst auf den Detaillierungsgrad der Notationen. Stellt sich Detaillierung als zu hoch heraus werden Abstraktionsm?glichkeiten vorgestellt, um einen für eine Unternehmensarchitektur sinnvollen Abstraktionsgrad zu erreichen. Im Anschluss daran werden die wenn n?tig abstrahierten Modelle anhand eines Fallbeispiels in die Unternehmensarchitektur nach ArchiMate integriert. Fokussiert wird dabei die Zuordnung der Elemente der Notationen zu denen des ArchiMate-Metamodells. Ergebnis der Arbeit ist eine Unternehmensarchitektur, die durch die Verwendung der (abstrahierten) Notationen und der anschlie?enden Integration dieser in das ArchiMate-Modell erstellt worden ist.

?

Potenziale und M?glichkeiten des Enterprise Architecture Managements bei der Softwaremessung im Kontext des Managements von IT Projekten

Masterarbeit, Januar 2015

Ergebnis der Masterthesis soll sein, einen ?berblick zur Softwaremessung in Bezug auf das Management von IT-Projekten zu schaffen. Weiter werden die Potentiale des Enterprise Architecture Managements bei der Bewertung und Steuerung des IT-Projektportfolios innerhalb der Unternehmensstrategie erarbeitet und die M?glichkeiten zum Einsatz in einzelnen IT-Projekten erl?utert. Hierbei wird beschrieben, wie sich das Enterprise Architecture Management in die jeweilige Entwicklungsmethode eines IT-Projektes einfügt und wie dadurch eine Verbesserung der Projektsteuerung erfolgt. Abschlie?end mit einer objektiven Bewertung der erzielten Erkenntnisse kann diese Arbeit als Grundlage für weitere Forschungen auf dem Gebiet des Enterprise Architecture Managements verwendet werden.

2014

Evaluation of model switching strategies for multi-resolution agent-based traffic simulation

Masterarbeit, November 2014

?

Automatisiertes Schnittstellenmanagement basierend auf projektspezifischen Anforderungen, optimiert durch projektübergreifende Informationen aus dem EAM unter Berücksichtigung von festen und variablen Projektzielgr??en

Masterarbeit, November 2014

?

Unternehmensarchitekturmanagement in einem mittelst?ndischen Unternehmen: Herausforderungen und L?sungswege

Masterarbeit, November 2014

Durch die engere Verzahnung von Business und IT und die damit einhergehende wachsende Komplexit?t der Anwendungslandschaften wird es für Unternehmen immer wichtiger, ihre Unternehmensarchitektur zu dokumentieren und ein Mana- gement dieser zu betreiben. Das sogenannte Unternehmensarchitekturmanagement bzw. Enterprise Architecture Management (EAM) besch?ftigt sich mit dieser Aufgabenstellung. Bislang findet das EAM vor allem in gro?en Unternehmen Anwendung, da aufgrund der Gr??e dieser Unternehmen die Komplexit?t viel h?her ist. So sind die bekannten Methoden ebenfalls eher für gro?e Unternehmen ausgelegt. Dennoch k?nnten aber auch mittelst?ndische Unternehmen von den Zielen und dem Vorgehen des EAM profitieren, wenn es angepasst und im richtigen Umfang eingesetzt wird. In dieser Arbeit soll untersucht werden, ob und wie sich das EAM auch für mittelst?ndische Unternehmen eignet. Hierfür werden zun?chst die Grundlagen des EAMs erkl?rt. Im Anschluss wird in einem Beispielunternehmen eine dem EAM entsprechende IST-Analyse durchgeführt. Dabei werden die dabei auftretenden Herausforderungen geschildert und m?gliche L?sungswege aufgezeigt. Neben diesem Eignungstest werden auch grunds?tzliche Fragestellungen und Probleme des EAM diskutiert werden. So werden im dritten Teil der Arbeit M?glichkeiten er?rtert, wie sich Unternehmens- und Architekturziele formalisieren und im Kontext des mittelst?ndischen Unternehmens in das EAM integrieren lassen. Dabei werden verschiedene Methoden miteinander verglichen.

?

Entwicklung eines Kick-Start-Frameworks für Rails-Anwendungen

Masterarbeit, Oktober 2014

?

Software-Basierte Kundenfunktionseingabe für die Automatisierung

Masterarbeit, September 2014

Der in der Automobilindustrie seit einigen Jahren anhaltende Trend, dem Kunden ein überw?ltigendes Portfolio bereit zu stellen, bringt enorme Herausforderungen an den Entwicklungszyklus und dessen Methoden mit sich. Neben anderen Bereichen wird auch in der Softwareentwicklung verst?rkt auf die Automatisierung von Prozessschritten gesetzt.
Im Rahmen dieser Arbeit wird daher die softwarebasierte Kundenfunktionseingabe am Gesamtsystem untersucht. Hierdurch k?nnen zeitintensive Schritte in der Absicherung automatisiert und dadurch deutlich verkürzt werden. Vor dem Hintergrund eines modellgetriebenen Testprozesses wird daher basierend auf der Embedded Architectures and Software Technologies - Architecture Description Language (EAST-ADL) ein angepasstes Metamodell entwickelt, worin alle relevanten Aspekte eines Systems dargestellt werden k?nnen. Ausgehend von der konkreten Modellierung eines exemplarischen Systems wird daher die toolgestützte Ermittlung von Testszenarien (Wirkketten) untersucht und die Grenzen der Toolunterstützung aufgezeigt.
Auf Basis der theoretischen Untersuchungen wird im Umfeld des Zentralsteuerger?tes eine prototypische Umsetzung der Kundensimulationssoftware vorgenommen. Von besonderer Bedeutung ist dabei die Konzeption für das verteilte System, als auch eine ressourcensparende und an die bestehende Architektur adaptierte Umsetzung. Des weiteren werden die gewonnenen Ergebnisse am Gesamtsystem plausibilisiert und gegen die bestehende Implementierung getestet. Abschlie?end werden Ans?tze zukünftiger Ausbaustufen aufgezeigt und die gewonnenen Erkenntnisse resümiert.

?

Automatisierte Analyse technischer Dokumentation

Diplomarbeit, September 2014

Für viele Bereiche in der Softwareentwicklung gibt es Tools die eine automatisierte Hilfestellung zur Qualit?tssicherung bieten. Bei der Entwicklung des Quellcodes kommen beispielsweise Linting Tools zum Einsatz die durch statische Codeanalysen h?ufig auftretende Probleme finden. Aber auch Unittests werden zur Qualit?tssicherung verwendet in dem automatisierte Tests die Korrektheit des Quellcodes überprüfen. Für die technische Dokumentation eines Programms, die einen notwendigen Teil eines Softwareprojekts darstellt, ist das Tooling zur Qualit?tssicherung dagegen bisher kaum bis nicht existent. Vor allem die teils mangelhafte Qualit?t der Dokumentation von Open Source Bibliotheken ist Motivation genug diese Lücke zu schlie?en. Da die meisten Open Source Bibliotheken eher kleine Projekte sind die nur von wenigen Freiwilligen betreut werden, scheint es nachvollziehbar, dass keine professionellen Autoren und Editoren für die Erstellung der jeweiligen technischen Dokumentation zur Verfügung stehen. Ein entsprechendes Tool zur Qualit?tssicherung kann so dasWissen über h?ufig gemachte Fehler beim erstellen von Dokumentation zusammenfassen. Auf diese Weise k?nnen die gefundenen Erkenntnisse allen interessierten Open Source Entwicklern ausführbar zur Verfügung gestellt werden. Ein solchesWerkzeug soll es erlauben automatisiert Richtlinien zu überprüfen, die innerhalb eines Projekts für die Erstellung von Dokumentation entwickelt wurden. So wird eine Konsistenz der Inhalte erm?glicht und erleichtert durch das automatisierte Feedback die Einarbeitung neuer Autoren die mit den Projektregeln noch nicht vertraut sind. In der vorliegenden Arbeit wird die Entwicklung von annotatedocs erl?utert welches eine m?gliche Variante eines solchen Tools darstellt. Der Hauptfokus liegt darauf ein modulares Framework zu schaffen, das leicht an die teilweise sehr unterschiedlichen Bedürfnisse eines Projekts angepasst werden kann. So soll einerseits die Prüfung der Dokumentation individualisierbar sein, andererseits soll es die Erstellung von wiederverwendbaren Tests f?rdern, die zwischen Open Source Projekten geteilt werden k?nnen. Ein weiteres Ziel ist es eine graphische Ausgabe der gefundenen Schwachstellen zu erm?glichen. So sollen gefundene Fehler direkt in die selbe Ansicht mit eingepflegt werden die auch der Autor der Dokumentation nutzt um die geschriebenen Texte gegen zu lesen. Das erlaubt eine nahtlose Integration in den bestehenden Arbeitsablauf eines Dokumentationsautors. Neben der Entwicklung des individualisierbaren Frameworks ist es auch ein Anliegen dieser Arbeit das entstandene Tool anzuwenden. So soll eine beispielhafte Zusammenstellung von Qualit?tsprüfungen bereitgestellt werden die auf die Dokumentation eines typischen, kleinen Open Source Projekts anwendbar ist. So soll geprüft werden ob der Ansatz praxisnahe Verwendung finden kann.

?

Konzept und Implementierung einer intuitiven Abfragesprache zur Erhebung von Metriken in Unternehmensarchitekturen

Bachelorarbeit, August 2014

Every company has to adjust to steadily rising requirements from a globally extending market. Growth by business and IT integration is the main enabler for coping with this situation. This very complex field is a domain that is most influenced by enterprise architecture management (EAM). The capabilities of what EAM historically could do has been restricted to mere creation of architectural designs using different frameworks and according tools. However using those models could allow for more, such as the integration of data related to specific EA elements and retrieving appropriate indications of performance for any of these elements in a company. By providing new means of model persistence, enriched with metadata and an appropriate domain specific query language (DSL) this research aims to offer new capabilities in the EAM domain. The prototypical implementation of those components is derived directly from the specific requirements EAM has. As a result the offered solution puts architectural models of EAM in a completely new usecase scenario, furthermore enabling integration between different stakeholders of the EAM domain.

?

Multi-dimensional Classification of Driver Mental Workload

Masterarbeit, Juli 2014

Recent human factors and ergonomics research for driving safety is placing an increasing focus on questions related to drivers’ cognitive state. However, most of this research has used manual analyses of factors impacting cognitive workload, with only little automation. This thesis describes the architecture and implementation of a flexible machine learning framework for automated classification of cognitive workload. An evaluation drawing on a set of on-road driving studies uses this framework to examine promising algorithmic and parameter choices – especially the suitability of several meta-classification techniques in a driver workload detection context. Special focus lies on the generalizability of the approaches under evaluation, to assert their applicability for workload detection of a larger population beyond the training data. An illustration of two possible application scenarios puts the research conducted for this thesis in a broader context and shows opportunities for further improvement and research.

?

Kopplung eines Fertigungsleitsystems mit SAP zur Optimierung der Gesch?ftsprozesse - Ein Schritt Richtung Industrie 4.0

Masterarbeit, Juli 2014

?

Utilizing actors to crawl the web for broken links

Masterarbeit, Juli 2014

?

Concepts for Ontology Engineering and Model Derivation from Natural Language Requirements

Masterarbeit, Juni 2014

In today’s automotive system development processes, multidisciplinary stakeholders specialized in different domains need to collaborate on the foundation of a common system understanding. Current requirements engineering processes as part of the V-Model are based on natural language specifications and therefore lack the formal definition of domain knowledge. As a result, it becomes increasingly difficult to consistently document, review and trace requirements statements throughout an entire project’s life cycle. Since manual acquisition of domain knowledge is time-consuming and error prone, this thesis presents an ontology-driven requirements engineering process, with emphasis on approaches to (semi-)automatically extract knowledge from text corpora consisting of requirement specifications of the automotive industry. The resulting domain ontologies ensure commitment to consistent terminologies and allow the establishment of advanced (semantic) traceability. The evaluation of a case study specification shows that the novel taxonomy clustering method and its custom compound features outperforms common hierarchical clustering. Furthermore, a survey conducted on domain experts validates the extraction of conceptual relations using association mining. Finally, this thesis exemplifies how rule-based axioms and their reasoning capabilities can be employed to provide semantic traceability between single requirement statements and design model artefacts.

?

A Management Framework for Mobile Sensor Data

Masterarbeit, Juni 2014

?

Analyse der Auswirkungen von Ver?nderungen in Unternehmensarchitekturmodellen mit semantischen Technologien

Bachelorarbeit, Mai 2014

Unternehmensarchitekturen sind heutzutage ein essentielles Werkzeug für Firmen, welches dazu benutzt wird, um immer komplexer werdende IT-Infrastrukturen planen und modellieren, sowie Zusammenh?nge einfacher verstehen zu k?nnen. Sie beschreiben verschiedenste Komponenten, die an wichtigen, gesch?ftskritischen Prozessen beteiligt sind und wie diese untereinander in Beziehung stehen. Da sich das wirtschaftliche Handeln eines Unternehmens laufend ?ndern kann, ist es wünschenswert, anhand eines Unternehmensarchitekturmodells herausfinden zu k?nnen, wie sich ?nderungen an IT-Systemen bzw. ?nderungen an Prozessen oder beliebigen anderen Komponenten des Modells auf das Unternehmen auswirken. Diese Arbeit m?chte bestehende Ans?tze zur Auswirkungsanalyse von Ver?nderungen anhand eines Beispiels erproben, diese zusammenführen und dahingehend erweitern, dass ein EA-Metamodell, welches als Ontologie formuliert ist, verwendet wird, um semantische Informationen eines EA-Modells extrahieren zu k?nnen.

?

Integrating Java Workflow Tooling with the Activiti process engine

Masterarbeit, Mai 2014

In this master's thesis we focus on how we will integrate Java Workflow Tooling with Activiti, and ensure that business processes defined within the Java Workflow Tooling tool stack will become executable by means of Activiti, and then on this basis implement monitoring aspects required for further analyses of business processes. As Java Workflow Tooling is a tool stack for developing business processes within Eclipse, the technological realization of integration aspects will be performed from a developer's point of view by extending the Eclipse plugins of Java Workflow Tooling and Activiti.

?

Implementierung eines eingebetteten Regelungssystems für die Faserverbundverarbeitung

Masterarbeit, M?rz 2014

?

Finding parallelizable Function Calls in C Code by Analyzing Memory Access Dependencies

Masterarbeit, Februar 2014

The primary goal is to help a programmer to find function calls that are not dependent on each other in non-parallel programs written in the C Programming Language. Those function calls can be conceived as candidates for parallelization. The way how they are parallelized and also if they are parallelized needs to be decided by the programmer. As a part of this work a prototype is built which realizes the described primary goal. This prototype uses a static program analysis approach. Other methods such as symbolic execution or dynamic analysis of the program are not applied.

2013

Realisierung von serviceorientierten Architekturen in Unternehmensarchitekturen

Bachelorarbeit, November 2013

Das Ziel dieser Arbeit ist die Dom?nen Unternehmensarchitektur und Service-Orientierte Architektur genauer zu betrachten um festzustellen in wieweit Unternehmensarchitekturen das Konzept der Service-Orientierten-Architektur vertreten. Dazu werden die Standards aus den Enterprise Architecture Frameworks hinsichtlich ihres Verst?ndnisses und Ihrer Umsetzung einer SOA analysiert und anschlie?end mit den Standards der Service-Orientierten-Architekturen verglichen.

?

Analysen in Unternehmensarchitekturen - Ziele, Techniken, Anwendungsbereiche

Bachelorarbeit, September 2013

In den letzten Jahren wurde das ganzheitliche Management der Unternehmensarchitekturen - Enterprise Architecture Management - zu einer immer bedeutsameren Disziplin der Unternehmensführung. Daher soll diese Arbeit Grundlagen vermitteln, einen ?berblick über das Thema der Analysen und ihrer Funktionen verschaffen und zus?tzlich soll ein Einblick auf die Motivation dieses Themengebiets gew?hrt werden. Des Weiteren werden wichtige Begriffe definiert und eine selbst entwickelte Definition einer Unternehmensarchitektur-Analyse aufgestellt. Im Zuge einer Literaturrecherche wurden alle momentan verfügbaren Analysen gesammelt. Hierbei wurden nur Analysen mitaufgenommen, die der dargelegten Definition einer Unternehmensarchitektur- Analyse entsprechen. Generell ausgeschlossen wurden Analysen der Bereiche Software-Architektur und Service-orientierte Architektur. Um ein besseres Verst?ndnis für die verschiedenen Analysen zu erhalten, werden die unterschiedlichen Eigenschaften erl?utert. Diese sind grundlegend für die Kriterien zur Kategorisierung der Analyseans?tze. Die Hauptintention dieser Arbeit liegt auf der Beschreibung der Analysen und ihrer Techniken. Es werden die Ans?tze vorgestellt und Hinweise auf m?gliche Umsetzungsarten gegeben. Die Analysen werden in die Unternehmensebenen ?Strategieebene“, ?Informationsebene“, ?Anwendungsebene“, ?Infrastrukturebene“ und die Schnittstellen eingeordnet. So kann ein ?berblick verschafft werden, welche Anwendungsbereiche bereits ausreichend abgedeckt wurden. Innerhalb der Kategorien wird nach weiteren Kriterien sortiert, wie beispielsweise dem Zeitbezug. Nach der ausführlichen Darstellung der Ans?tze werden diese anschlie?end bewertet. Zum einen wird versucht einen Einblick in die Praxis zu gew?hren, um eine Kosten und Nutzen Abw?gung durchzuführen, wobei dies nur sehr bedingt m?glich ist, da eine Umfrage nicht Bestandteil der Arbeit ist. Zum anderen wird die verwendete Kategorisierung bewertet und der Reifegrad der vorgestellten Analysen ermittelt. Hierbei konnte festgestellt werden, dass auf Grund mangelnder Ver?ffentlichungen, die meisten Analysen noch nicht einsatzf?hig sind. Jedoch wurde ersichtlich, dass viele Analysen in der gesamten Unternehmensarchitektur zum Einsatz kommen k?nnten und somit das EAM unterstützen. Wiederum nachteilig ist die Verteilung der Analysen hinsichtlich des Zeitbezuges, da nur wenige Analysen geeignet sind, um beim Aufbau einer Unternehmensarchitektur behilflich zu sein. Abschlie?end werden Verbesserungsvorschl?ge genannt, ein Ausblick auf zukünftige potentielle Analyseans?tze gegeben und m?gliche weitere Forschungsfragen er?ffnet.

?

Nutzenbasierte Konfliktl?sung für Batch Request und Single Request in SON

Bachelorarbeit, September 2013

In Mobilfunknetzen werden zur Konfiguration, Optimierung und Fehlerbehebung verschiedene Parametern z.B. Antennenneigungswinkel, Downlink Sendeleistung in Self-Organising Networks (SON) Funktionen verwendet. Da mehrere Funktionen auf die gleichen Parameter zugreifen k?nnen und zum Teil gegens?tzliche Ziele haben, stehen diese Aktionen im Konflikt miteinander. Mit Hilfe der SON Koordination werden diese Konflikte anhand der Nutzwerte, die jede Aktion besitzt aufgel?st. Die Batch Request (BR) Ans?tze zur SON Konfliktl?sung w?hlen aus jedem Konflikt die Aktion mit dem gr??ten Nutzwert aus, und versuchen durch die Maximierung der einzelnen Konflikte den Gesamtnutzwert aller auszuführenden Aktionen zu optimieren. Durch diese isolierte Konfliktbetrachtung wird zwar der Nutzwert jedes einzelnen Konfliktes maximiert, aber nicht immer der Gesamtnutzwert aller auszuführenden Aktionen. Mit Hilfe der Constraint-Optimierung wird eine neue Methode zur SON Konfliktlosung ausgearbeitet, die den Gesamtnutzwert aller auszuführenden Aktionen optimiert. Ein anderer Ansatz zur Konfliktl?sung ist die Single Request (SR) Methode, die ausführende SON Funktionen durch eine anfragende SON Funktionen unterbricht, wenn die anfragende Funktion mit den ausführenden Funktionen in Konflikt steht und einen h?heren Nutzwert besitzt. Dabei wird nicht beachtet, dass der angegebene Nutzwert einer SON Funktion erst am Ende der Ausführungszeit erreicht wird. Die Konfliktl?sung der SR Methode wird mit Hilfe der Barwertmethode verbessert, um einen h?heren Gesamtnutzwert der ausgeführten SON Funktionen zu erzielen.

?

Generisches Android App Design & Implementation

Bachelorarbeit, September 2013

Diese Arbeit entstand im Rahmen von Mobile Maintenance, einem Teilpro- jekt des EU-Forschungsprojektes ComVantage. Hierbei geht es im Allgemeinen um die Entwicklung von generischen Android Apps für die Wartung von industriellen Maschinen. Unter Einbindung der anderen, innerhalb von ComVantage entworfenen, Technologien und Komponenten soll ein Prototyp entstehen, der anhand eines Anwendungsszenarios die M?glichkeiten der generischen App-Pogrammierung zeigt. Das Ziel ist dabei, Live-Daten einer realen Maschine über Sensoren und Aktuatoren zu lesen und zu schreiben. Bei fehlerhaften Werten k?nnen Testskripte gestartet werden, um die Maschinendefekte zu finden und genauer zu beschreiben.

?

Extending GMF to Enable Natural Language Controlled Applications

Diplomarbeit, August 2013

Nowadays, computers are able to accomplish certain tasks considerably faster and more efficiently than a human operator could do. In order to tell a computer tasks to be performed in a short and comprehensible textual form, controlled natural languages (CNL) has been developed. In this thesis an approach is presented which facilitates controlling of GMF applications by means of CNL commands. Therefore, such CNL commands have to be analyzed semantically, which is task of the SE-DSNL framework. This semantic analysis is executed under usage of a so-called analysis file containing the required knowledge, i.e., syntactic and semantic structures. Furthermore, modification of templates which are responsible for GMF’s code generator forms an essential part of the thesis. Thus, CNL commands can be entered, analyzed and finally, actions in GMF can be performed according to the result of the analysis.

?

Concept Study, Implementation and Assessment of a Method to Support Design Space Exploration in the Hardware Development Domain of Engine Management Systems

Masterarbeit, August 2013

The thesis presents a method to support design space exploration in the hardware development domain of engine management systems. The method explores an existing product and tries to integrate sets of components on ASICs to safe money. A running example is used to illustrate aspects of the developed parts of the following chapters. The methodology of the design space exploration bases on an experiment, which gets prepared, conducted and assessed by an engineer and works step by step towards usable ASIC solutions. With the AUTOSAR ECU Resource Template a formal language is presented to utilize the methodology. Parts of this de facto standard in the automotive industry are further investigated to discover and resolve problems which appear in the context of this thesis.

?

Entwicklungsmethodik für Multicore-Systeme

Masterarbeit, Juli 2013

Der stetig zunehmende Einsatz der Multicore-Prozessoren in den letzten Jahren erfordert neue Herangehensweisen bei der?Softwareentwicklung. Wo bis vor kurzem parallele Verarbeitung nur bei High-End-Systemen zu wissenschaftlichen Zwecken genutzt wurde, wird dies heutzutage innerhalb einzelner Prozessoren erreicht. Ganze Softwareentwicklungsprozesse und insbesondere die zum Einsatz kommenden Methodiken müssen sich auf die neue Multicore-?ra einstellen. Unter anderem stellen sich folgende Fragen: Wie werden die parallelen Softwareteile innerhalb des zu entwickelnden Systems identifiziert? Wie wird bei der Aufteilung der Software-Architektur vorgegangen, so dass diese optimal auf die einzelnen Prozessoren/Kernen abgebildet werden kann? Welche Algorithmenstrukturen eignen sich für bestimmte Problemklassen? Bestehende Ans?tze und Methodiken konzentrieren sich vor allem auf die Partitionierung und Parallelisierung von Algorithmen, was nur einen Teil des Entwicklungsprozess abdeckt. Praktiken und Ans?tze zur Erstellung paralleler Software gibt es derzeit in unz?hligen wissenschaftlichen Ver?ffentlichungen, allerdings abstrahieren diese meistens direkt auf der Implementierungsebene. Es sind durchgehende Methodiken gefragt, die den Entwickler/Designer bei der Erstellung Multicore-f?higer Software, beginnend mit den Anforderungen an das zu entwickelnde System bis hin zum Testen, unterstützen. Der Herausforderung des Mangels an bestehenden Methodiken wird in dieser Arbeit durch den Vorschlag einer Entwicklungsmethodik für Multicore-Software ?entgegengesteuert“. Einzelne Ans?tze des Software-Engineerings, der Modellierungsmethoden der UML2 und des Algo-rithmenentwurfs werden hierbei zu einer durchgehenden Methodik vereinigt. Basierend auf der Analysemodellierung ergibt sich eine Software-Architektur die sich für die Parallelisierung auf der h?heren Architektur-Ebene eignet. Die Entwurfsphase ist für die feinere Parallelisierung und eine detailliertere Modellierung des Systems in Hinsicht des Kommunikation - und Synchronisationsverhaltens ausgelegt. Die zusammengestellte Methodik eignet sich für den Fall einer Neuentwicklung als auch der Portierung einer sequenziellen Software-Variante auf die Parallele. Abschlie?end werden einzelne Prozessteile der Methodik anhand einer Fallstudie veranschaulicht.

?

Design Patterns in Multicore Programming and their Application

Bachelorarbeit, Juli 2013

Parallel programming is now used in various application domains. Some of these application domains are in the field of simulations which run intensive computations to obtain accurate results like weather forecast simulations. Another application domain is in the field of medicine like DNA matching, which uses exhaustive string matching algorithms. One more application domain is cryptography where brute force algorithms are often used to crack passwords or decrypt certain encoded messages. Parallel programming is used in these fields and many others because of two main reasons. The first is that these fields run intensive computations that need powerful machines. The second reason is that single core development has reached its critical limit and single core machines can no longer keep with need to run those intensive algorithms in the least possible amount of time. Due to these two reasons, it can be speculated that Moore's law (which stated that the number of transistors per chip will double every 12 to 18 months) will be mapped to the number of cores per processor instead of transistors per chip. This paper discusses the reasons that led single core development reached its limit and also led to the change from single cores to multiple cores (or in general, to change from serial programming to parallel programming). However, the main part of the paper is concerned with explaining all the aspects of the parallelization process and illustrating the differences between the commonly used patterns of multicore programming and the currently used technologies.

?

Modellbasierte Analyse von Programmiersprachen

Diplomarbeit, M?rz 2013

In dieser Arbeit wird gezeigt, wie man Programmiersprachen in eine Modelldarstellung übertragen und anschlie?end analysieren kann. Dabei unterteilt sich das Projekt vor allem in zwei Teile.

Zuerst wird besprochen, wie ein Modell erzeugt werden kann, anschlie?end, wie man eine Daten?ussanalyse darauf ausführen kann. Bei der Erzeugung des Modells wird überlegt, wie ein Modell eines Java Programms, Java wurde als Beispiel für eine Programmiersprache gew?hlt, aussehen kann. Dabei wird auf die verschiedenen Konstellation eingegangen, die dabei auftreten k?nnen. Mit Hilfe des Eclipse Modeling Framework (EMF) wird eine Beschreibung eines Modell, ein sogenanntes Metamodell de?niert. Danach wird beschrieben wie man ein Java Programm, welches durch einen abstrakten Syntaxbaum dargestellt wird, in ein Modell übertragen kann. Hat man ein gültiges Modell, kann darauf eine Daten?ussanalyse angewandt werden. Es werden dabei mehrere verschiedene Analysen und Transformationen aufgezeigt und beispielhaft an einem Modell durchgeführt.

?

Konzeption und Implementierung eines DSL-Editors für modellbasierte Datenflussanalyse

Bachelorarbeit, Februar 2013

Diese Arbeit besch?ftigt sich mit der Konzeption und Implementierung eines DSL-Editors?für modellbasierte?Datenflussanalyse.?Dieser? Editor? basiert? auf dem "Model? Analysis? Framework",?einem?Tool,?das vom Lehrstuhl?"Softwaremethodik?für?verteilte?Systeme"?der? Universit?t? Augsburg? entwickelt und in verschiedenen Projekten angewandt wurde. Wir werden mit dieser Arbeit einen?textuellen?Editor? für? diese?MAF-Sprache konzeptionieren?und implementieren.

?

Analyse im modellbasierten Test

Bachelorarbeit, Februar 2013

Diese Arbeit besch?ftigt sich mit dem Einsatz von Metriken zur qualitativen Bewertung von Testmodellen im Bereich des modellbasierten Testens (MBT).

?

Analyse, Konzeption und Implementierung eines Prototypen zur Qualit?tskontrolle in Softwareprojekten

Masterarbeit, Januar 2013

?

Design and Implementation of a browser plugin for encryption of generic website contents

Bachelorarbeit, 2013

?

Analyse der I-Stufenkonsistenz in Abh?ngigkeit von Fahrzeugalter und weiteren Faktoren

Bachelorarbeit, 2013

?

Betrachtung und prototypische Implementierung einer Installations- und Aktualisierungsstrategie von modularen dreistufigen Enterprise Softwaresystemen

Masterarbeit, 2013

?

Heart rate variability metrics for use in applied environments

Masterarbeit, 2013

The purpose of this paper is to assess heart rate variability metrics for use in applied environments. More specically, we present a new method for handling common cardiac arrhythmia in order to evaluate whether heart rate variability metrics are sensitive enough for detecting cognitive demand while people are driving. For this analysis we reexamined an on-road experiment with 108 participants. During the driving period, we requested each subject to perform certain two-minute tasks, which diered in the level of cognitive demand. We conducted an experimental analysis to nd the best QRS detection method for our setting. We found two commonly used algorithms to have the best detection rates in a driving environment. R-peaks are further processed by our real-time algorithm to automatically detect common cardiac arrhythmia in the heart beat series. Based on this approach we found that 21 out of 108 participants recordings contained abnormal beats. For the correction both context-sensitive information and dierent types of arrhythmia are taken into consideration. The normalized IBI series is further processed. For comparison of HRV metrics we calculated common time- and frequency-domain measures. As a result we found out that time-domain metrics are more sensitive for detecting cognitive workload. Moreover, some frequency-domain metrics failed to dierentiate conditions at all. Applications can use this information in developing human computer interfaces or improving driver's safety.

?

Konzept für eine Portfolio Prozess und Portfolio Management Softwarel?sung am Beispiel Fujitsu ?Value4You“

Masterarbeit, 2013

Business Process modeling is becoming an increasingly important activity especially in early phases of software development projects. The purpose of this work is to examine the potential of process optimization by comparing current process workflow references V4Y Product Segment, which will further answer the question if a commercial enterprise application should be licensed or if it would be possible to build an application using in-house resources on behalf of V4Y processes. This work provides an overview of current processes for V4Y Product Segment whereby the focus has been on the optimization of business processes and modeling of a software solution concept which enables the fulfillment of business requirements regarding user needs.

?

Erstellung eines grafischen Editors zur modellbasierten Generierung von Artefakten in mobilen Applikationen

Masterarbeit, 2013

?

Model-driven Support for User Interface Evolution in Software Product Lines

Masterarbeit, 2013

?

Effizienzsteigerung durch Software Standards und Modularisierung

Masterarbeit, 2013

?

Design of a Workflow Description Language for Power Grid Load Shaping Systems

Masterarbeit, 2013

In the face of rising energy prices, ecient power usage is growing more important every year. By shaping the consumption of power in smart grids according to the current situation, demand response systems like Siemens DRMS can not only help to increase the cost-eciency of power generation but also foster the grid's reliability. The conditions that demand response systems react to as well as the processes which run within them are not only utility-specic but also dependent on the status of the power grid as well as environmental conditions. These systems need to be highly customizable in order to allow continuous optimization and evolution. To provide this exibility Siemens DRMS version 2 is designed for workow-based conguration of the system. In this thesis the requirements for a DRMS-specic workow- and conguration language are gathered. In addition, the constraints for an appropriate language are elicited from DRMS projectand demand response experts. In order to enable domain experts to optimize the system, they should be able to understand workows without special training and create custom workows after a short training period. Furthermore, the created workows must be executable in the DRMS without additional renement, still guaranteeing that the system's stability and security are not impaired. Because no existing language that fullls both the functional requirements as well as the constraints could be found a new language is designed: the DRMS Workow Description Language (DWDL). DWDL allows the specication of workows comprising conditions and reactions. When a described condition occurs, the belonging reaction is executed. Reactions are focused on executing operations in the DRMS. While the language only needs simple control ows mechanisms to fulll the DRMS's requirements, complex argument structures must be simple to describe. To this end DWDL has a textual syntax that is close to the English language and uses implicit information to simplify workows. DWDL workows do not contain technical information; however, they are still directly executable. Also, no manual checks need to be done before workows are executed in the system; still, undesired situations like endless loops or invalid workow states are prevented. For DWDL a formal syntax and semantics are provided in this thesis. The language's syntax is given as a grammar in a BNF-like notation. Its semantics is specied in rewriting logic. Besides the language denition this thesis also demonstrates how DWDL can be used to implement the DRMS version 2 project's workow-related user stories. Furthermore, the language is compared to existing workow languages. In addition, the design for a workow engine that can execute DWDL workows is given. DRMS version 2 is integrated with a prototype of the specied workow engine. It is in productive use at pilot customers. All utility-specic conguration is done in DWDL so that the same code base is used for all customers.

?

Models in the Development Process for Parallelizing Embedded Systems

Masterarbeit, 2013

Modern advanced driver assistance systems getting more and more sophisticated. Therefore, reference systems are needed which allow a reliable validation of their features. Multi-beam LiDAR sensors with an extensive field of view constitute a feasible technology that can enable such reference systems because software systems which are behavioral equivalent to particular advanced driver assistance systems can be built in a more simple manner on the basis of these sensors. However, before the sensors can be effectively used they have to be calibrated. This work presents a set of fully automated and unsupervised algorithms that allow to determine parameters for an extrinsic calibration to recover the rigid transformation between the multi-beam LiDAR sensor and an inertial navigation system, for an intrinsic calibration to ensure high accurate measurements as well as for an intensity calibration to provide consistent remittance measurement for all individual lasers.

?

Konzeption und prototypische Umsetzung eines lastgetriebenen, nicht blockierenden LoadBalancers mit Session-?Persistenz für Server-?Cluster mittlerer Gr??e

Masterarbeit, 2013

?

2012

Automated Refinement of High-Level Policies in Self-Organizing Networks

Diplomarbeit, November 2012

The increasing number of mobile devices as well as the resulting increased usage of the internet on these devices leads to a greater complexity of the mobile communications networks and the underlying systems managing these. To get this complexity under control self-organization helps to reduce the manual work. Thereby, policies play a decisive role. Policies can be called guidelines or constraints on a system. By specifying them on a high level of abstraction and refining them automatically to executable machine-oriented policies, the system’s behavior can be adapted at any time. In this thesis the model-driven approach for policy refinement is introduced and how it can be applied to five exemplary policies of a self-organizing long term evolution network. However, a multitude of such policies occur in complex systems. Thus, refinement code can not always be written manually for them. That’s why this thesis also deals with the automated code generation for further policies. A final chapter presents some methodologies extending the existing approach and achieving automation to a greater extent.

?

Models in the Development Process for Parallelizing Embedded Systems

Masterarbeit, Oktober 2012

Single core processors for embedded automotive systems are approaching their limits concerning clock speed, memory speed and temperature. Additional functionality and efforts to lower the number of Electronic Control Units (ECUs) increase the performance needs of each computational unit. Therefore, automotive companies are migrating to multi core architectures. Plus, the Automotive Open System Architecture (AUTOSAR) has been established as a standard to represent software models in the automotive industry. Hence, tools and methodologies are required that harness the advantages of AUTOSAR for supporting the migration to multi core architectures. In this master's thesis, the new challenges created by switching to multi core architectures are examined. The thesis shows that model analysis can be used for overcoming many of these challenges. Several such analyses coping with data dependencies and data consistency are described. A tool is presented that statically analyzes AUTOSAR models and writes back the results to these models. This tool analyzes the connection between data dependencies and possible execution sequences of runnable entities (functional block in AUTOSAR). It supports the software engineer in restricting the possible execution sequences to a set that provides all runnable entities with their required input data in time. Finally, a case study shows the applicability of the tool.

?

Model Driven Apporach for Open Distributed Systems using an Enterprise Architecture Framework

Masterarbeit, September 2012

Open distributed systems are complex systems, which contain a lot of components provided by different vendors and built with different technologies. The use of well-established and standardized modeling techniques is one way to deal with the problems that occur in the specification and development process of these systems. Enterprise Architecture Frameworks provide a good foundation to structure the various required modeling techniques. Existing modeling solutions in the context of Enterprise Architecture Frameworks like UML4ODP, UPDM and ArchiMate do not provide optimal support for the specification of open distributed systems. In this thesis a coherent modeling approach for open distributed systems using an enterprise architecture framework (MODEA) is presented. In the approach the latest OMG standards like UML, SoaML, BPMN and BMM are used. As enterprise architecture framework the Reference Model for Open Distributed Systems (RM-ODP) has been chosen. Finally MODEA is illustrated through the specification of two case studies.

?

Entwicklung einer Kon?gurationsmethodik für ROOM Modelle basierend auf einer dom¨anenspezi?schen Sprache und Codegeneration

Bachelorarbeit, September 2012

In dieser Arbeit wird eine Methodik zur Kon?guration von ROOM Modellen entwickelt. ROOM ist eine objektorientierte Modellierungssprache für eingebettete Systeme.

Es wird ein Modell, basierend auf einer dom?nenspezi?schen Sprache, entworfen, um die Kon?guration zu erfassen. Konkret kann darin der Zustand eines ROOM Modells, wie Wert und Eigenschaften von Attributen, angegeben werden. Mittels Codegeneration wird diese Kon?guration in Java-Programmcode realisiert. Die Kon?gurationsmethodik wird au?erdem um eine dynamischeVariante mit einem ebenfalls generierten Laufzeitsystem erweitert. Die Arbeit ist in das eTrice Framework integriert, ein Open-Source Unterprojekt des Eclipse Modeling Frameworks.

?

Verwendung von OWL2 Ontologien in Linguistisch Motivierten Szenarien

Bachelorarbeit, August 2012

?

Automatische ?berprüfung Ontologiespezifischer Ressourcen in Gesch?ftsprozessmodellen

Bachelorarbeit, August 2012

?

Automatische ?berprüfung Ontologiespezifischer Ressourcen in Gesch?ftsprozessmodellen

Bachelorarbeit, August 2012

?

Erstellung eines kollaborativen EAM Tools mittels intuitiver Multitouch Bedienkonzepte

Masterarbeit, August 2012

In der Ihnen vorliegenden Arbeit werden zwei gro?e Themengebiete zuammengebracht, die bisher in dieser Form nicht als eine Einheit angesehen wurden. Die Themengebiete sind das Enterprise Architecture Management(EAM) und Enterprise Architectures(EA), sowie Multitouch im Allgemeinen und Multi Touch Tables(MTT) im Speziellen. Zun?chst sind dies zwei Themengebiete, die nichts miteinander gemein haben. Auf der einen Seite das aus der Wirtschaftswelt stammende EAM mit seinen EAs, welches sich aus der Notwendigkeit ergab immer gr??ere Unternehmen mit immer gr??eren und undurchsichtigeren IT-Landschaften profitabel und agil zu gestalten. Auf der anderen Seite die Multitouchtechnologie, die sp?testens seit Apples IPhone in aller Munde ist, eine neuartige Form der Mensch-Maschine-Kommunikation darstellt und mit MTTs nun versucht in neue Einsatzgebiete vorzudringen. Jedoch bei genauerer Betrachtung stellt sich heraus, dass abstrakt gesehen beide eine Gemeinsamkeit verbindet: Komplexe Gegebenheiten auf m?glichst simple Weise in den Griff zu bekommen. Beim EAM ist dies das Verwalten und Weiterentwickeln von bestehenden Unternehmen und deren IT-Landschaften. Beim Multitouch ergibt sich dies aus der Notwendigkeit das Fehlen von Maus und Tastatur auszugleichen. Multitouch bietet dabei zudem die M?glichkeit die Interaktion mit Inhalten intuitiver zu gestalten, als bei der herk?mmlichen Eingabe mit Maus und Tastatur, da der Nutzer in der Lage ist die Inhalte "anzufassen". MTTs gehen hier noch einen Schritt weiter und bringen den Aspekt der Kollaboration mit ein, da sie Platz für mehrere gleichzeitige Nutzer und deren Eingaben bieten. Auf dieser gemeinsamen Basis wird in der nachfolgenden Arbeit ein Tool entwickelt, das s?mtliche Funktionen zum Bearbeiten von EAs bieten soll und diese Funktionen zudem mittels Multiouch besonders intuitiv gestalten soll. Der Aspekt der Kollaboration soll dabei zum einen durch den MTT, zum anderen durch die Oberfl?che des EAM-Tools gew?hrleistet werden.

?

Ontology-based Resource Management for Software Engineering Processes

Bachelorarbeit, August 2012

Business processes and methodologies arise everyday in enterprises and have grabbed attention in research and industry. To start up with a process, enterprises have to match the process requirements with the already existing resources. This needs careful analysis so as to decide whether a process is executable or not. The skills of human resources and the capabilities of the tools are kept in a database, which is the Ontological Technical Space (OTS). Matching the process requirements to our Ontology of existing resources, is quite challenging and time consuming. Therefore, we plan on introducing an automatic approach of matching the requirements in the Metamodeling Technical Space (MMTS) with the already existing resources in the Ontological Technical Space. This matching approach is done through the integration of an Ontology-based Feature Model with the MMTS. This allows the semantic annotation of the process model with its requirements; where afterwards the Ontology is queried for the existence of such a resource satisfying those requirements selected.

?

?

Multi-concern modeling for safety and security

Bachelorarbeit, August 2012

During software development, modeling is used extensively due to its capabilities to provide an abstract overview of the software at different stages of its development as well as it's ability to simplify the communication process among the stakeholders. There is a wide number of modeling approaches, which are used nowadays. However each of these approaches handles concerns in a different way and focuses on certain challenges, leaving others. In this thesis, a number of modeling approaches is described and analysed to highlight which challenges do they address and which concerns do they focus on. Modeling approaches that focus on safety or security concerns were included in the thesis, due to the rising importance of these concerns in software development nowadays. This thesis would help the reader understand software development challenges and how are they addressed by different approaches, while providing a detailed comparison between the approaches discussed in this thesis.

?

Automatic Planning of Semantically Annotated Business Process Models Taking Resources Into Consideration

Bachelorarbeit, August 2012

In business process management, certain levels of automation are required to maintain a certain level of efficiency in the business process. Automated planning of process models was suggested to increase this degree of automation in business process management. Some approaches were made concerning the automatic planning of these process models, however, none of them puts in mind the the consideration of the resource requirements at design-time. In this paper, an ontology-based extension of an existing automated planning approach (the SEMPA algorithm) will be presented. This extended approach will simply allow selection of only those process models that have enough available resources to be executed. The selection will be done from a list of semantically annotated business process models. This paper provides information about semantic web technologies and ontologies. Moreover, it gives insight about Business Process Modelling (BPM) and semantic annotation. Finally, it presents an overview about the original SEMPA as well as the details of the implementation of the extended SEMPA we design after it gives an overview about all technologies used in this implementation.

?

Design und Implementierung einer EncFS-kompatiblen Verschlüsselungsschicht für mobile Apps und Browser

Bachelorarbeit, Juli 2012

Aktuell angebotene Cloudspeicherdienste bieten zur Sicherung ihrer Daten lediglich eine serverseitige Verschlüsselung an. Diese Vorgehensweise entzieht den Benutzern jedoch die Kontrolle über die Sicherheit ihrer Daten. Verfügbare lokale Verschlüsselungen l?sen das Problem, ben?tigen aber die installierte Clientsoftware des Anbieters, und erfordern auch selbst Installationsrechte. Eine einheitliche L?sung, API-Zugriffe von mobilen Apps auf die Cloud zu verschlüsseln, existiert nicht. Ziel dieser Arbeit ist es, diese Lücken zu schlie?en. Dazu wird für Apps ein SDK entwickelt, das die Daten lokal ver- und entschlüsselt. Für den Zugriff ohne Installationsrechte wird eine Webapplikation unter dem Framework Grails entwickelt, die JavaScript zur Entschlüsselung nutzt. Beide L?sungen werden dabei kompatibel zum AES-basierten Dateisystem EncFS entworfen. In diesem theoretischen Teil der Arbeit wird die Entwicklung der Anwendungen über Analyse, Design und Implementierung nachvollzogen. Dabei wird auch auf JavaScript-spezifische Schwierigkeiten eingegangen. Zuletzt wird die Performance der potentiell langsamen JavaScript-Verschlüsselung gemessen, und unter der Voraussetzung von voll und effizient implementiertem HTML5 als brauchbar befunden.

?

Analyse und Bewertung von Automatisierungspotenzialen in Testprozessen

Bachelorarbeit, Juni 2012

This study deals with the analysis and evaluation of automation potential in test processes. The beginning of chapter 1 (Introduction) explains why automation of test activities is becoming a major issue in companies (which use, provide or produce software). Since a lot of companies are under pressure to run more and more complex systems which they have to adjust within increasingly shorter cycles, they raise the question to what extent the use of test automation is useful also with respects to economic considerations. Chapter 2 (Basics) explains several framework conditions in order to understand the starting situation. Here, it is initially a question of clarifying to what extent the use of distributed systems and service-oriented architecture has an impact on quality assurance of companies. At first it has to be defined what software quality actually is and which role software testing plays in this context to ensure it. It was therefore necessary to closely examine the concept of quality in regard to generally valid characteristics and to delineate the different software tests - aimed to check these characteristics - from each other. In addition, chapter 2 will provide a first assessment about the issue which testing phases are actually reasonably automatable within the software development lifecycle. Chapter 3 (Test automation in general) tries to define the concept of test automation more precisely and examines the different activities involved. It follows an analysis on what test automation can provide and in which sectors exaggerated expectations should be relativized a priori. Furthermore, chapter 3 deals with requirements that should be met in order to be able to generally begin with automation of test cases. With regard to the implementation, this chapter also describes various methods on how to generate and modify test scripts through the application of automation paradigms. Finally, several decisive factors for successful test automation are established and substantiated. Chapter 4 (Test automation in companies) deals with a concrete case study (carried out within the framework of this bachelor thesis). This study is about developing and expanding the automation within the test process of the "Augsburger Aktienbank". For this purpose a roadmap was created and potentials and risks caused by the implementation of test automation were discussed. The main objective of this chapter is the examination to what extent test automation can make a sustainably contribute to secure software quality and how it should be integrated in existing test processes. After describing the operations conducted in the company (within the framework of this bachelor thesis), test automation in general and its application in companies are subject to a final evaluation and a short prospect in chapter 5 (Evaluation and outlook).

?

A Multi-Agent Traffic Simulation -Evaluation of a Nature-InspiredSelf-Organizing Parking Guidance Systembased on Inter-Vehicle Communication

Masterarbeit, Mai 2012

In this thesis a decentralized, self-organizing parking spot allocation algorithm is proposed and simulated with an implemented multi-agent traffic simulation to measure the effect of the algorithm on traffic. Cars communicate directly via inter-vehicle communication. This is based on the recruitment behavior of foraging honey bees in a hive. To test the algorithm three experiments based on real parking demand taking place on a street network of Singapore are executed. The base experiment consists of cars that are not able to communicate to each other. This experiment is compared to two experiments where cars are able to communicate. These experiments differ in strategies of the cars on how to react to received messages and how often the message is forwarded or how long a message survives in the system. The algorithm is tested with the introduced framework for multi-agent traffic simulations. It is extended with smart parking features so that it is possible to measure cruising time and journey distance of cars searching for a parking spot as well as the throughput of parking stations. This thesis shows that the proposed algorithms can reduce traffic congestion signifficantly caused by cruising for a parking spot.

?

A Machine Learning Approach towards Online Detection of Driver Mental Workload

Masterarbeit, Mai 2012

The objective of this thesis was to develop a machine learning based approach towards online detection of driver mental workload. The majority of previous research on driver mental workload detection is subject to at least one of the following limitations: study data was collected in a simulator rather than in a naturalistic setting, the number of study participants was relatively small, post-analysis was employed instead of real-time detection. The supervised machine learning approach proposed in this thesis was evaluated based on vehicle, physiology and eyetracking data from 99 subjects collected in a naturalistic field study. Experimental results indicate a considerable performance of machine learning algorithms in distinguishing between normal workload and elevated workload levels. The realistic, yet conservative approach adopted in this thesis establishes a lower bound for classification. This thesis increases the confidence that machine learning is a viable approach towards online driver workload detection given appropriate data.

?

A Multi-Agent Traffic Simulation - Evaluation of a Traffic Information System based on Inter-Vehicle Communication

Masterarbeit, Mai 2012

Traffic congestions play a major role in our daily life and generate massive costs as tons of gallons are wasted. One of the reasons is that the existing streets are not used in an efficient way. A traffic simulation helps transportation engineers to measure the effects of a change in the traffic flow without changing the real system. This master's thesis introduces a traffic simulation framework for evaluating future traffic scenarios. It combines a micro simulation with a macro simulation and enables scenarios on a city scale. The design of the simulation is very flexible and provides interfaces for extending the framework. One scenario that has been evaluated with the help of the simulation framework is a traffic information system based on inter-vehicle communication. This traffic information system is able to prevent traffic congestions before they even emerge. Furthermore, the system comes with almost zero infrastructure costs and already existing traffic information systems can be migrated easily. The traffic simulation has been extended to simulate the traffic information system and multiple scenarios have been designed to measure the outcome. This master's thesis shows that the emergence of traffic congestions and the duration of traffic congestion can be reduced by the system.

?

Untersuchung und prototypische Umsetzung einer gesicherten Anbindung eines mobilen Endger?ts an ein Online-Portal

Bachelorarbeit, M?rz 2012

Diese Bachelorarbeit besch?ftigt sich mit M?glichkeiten einer gesicherten Anbindung eines Mobilger?ts, wie Smartphone oder Tablet-PC, an ein Online-Serviceportal und damit einhergehend mit der Bereitstellung diverser Dienste zur Kommunikation mit dem Mobilger?t. Dabei wird zu Beginn der Arbeit auf wichtige Grundlagen eingegangen, welche anschlie?end analysiert und durch die Erstellung einer prototypischen Anwendung (App) für das Android-Betriebssystem umgesetzt werden. Als Schwerpunkt werden die Kommunikation zwischen mobilem Client und Server (in Form der Bereitstellung eines WebServices), sowie systemspezifische Eigenschaften des Betriebssystems Android behandelt. Für einige Vorg?nge und für eine abgeschlossene Sicherheitsbewertung des Gesamtsystems ist au?erdem eine Analyse der Umsetzung des Online-Serviceportals von Bedeutung, welche allerdings in diesem Rahmen nur am Rande angeschnitten wird.

?

Metriken im Modellbasierten Test

Bachelorarbeit, Februar 2012

In dieser Bachelorarbeit wird versucht, anhand von Fallbeispielen, Metriken für den modellbasierten Test n?her zu bringen. Dazu wird vor dem Testprozess Ziele festgelegt. Um diese Ziele zu erreichen, werden daraufhin Tests entwickelt. Diese werden durchgeführt, um das? Hauptziel, die Softwarequalit?t zu erh?hen. Die Qualit?t wird anhand von Qualit?tsmodellen und den dadurch festgelegten Metriken messbar gemacht.? Hier wird ein zielorientiertes Qualit?tsmodell (GQM) eingesetzt, um die richtige Metriken zu finden.

?

Modellbasiertes Testen in der embedded Softwareentwicklung

Masterarbeit, Januar 2012

In elektronischen Steuerungen steigt der Testaufwand bei Entwicklungsfreigaben bzw. bei ?nderungen und Erweiterungen mit der Komplexit?t. Das modellbasierte Testen (MBT) erm?glicht den Nachweis von Systematik und Vollst?ndigkeit bei Verringerung des Testaufwandes und gleichzeitiger Erh?hung der Transparenz und Qualit?t. Eine damit verbundene Testautomatisierung dient der Fehlerabdeckung unter reproduzierbaren Bedingungen sowie der Minimierung der Validierungskosten. Im Rahmen dieser Arbeit wurden aktuelle Technologien wie die United Modeling Language und die Transformationssprache XSLT evaluiert und verwendet um ablauff?hige Testf?lle im Bereich der embedded Softwareentwicklung zu generieren.

2011

Entwicklung einer konkreten Syntax für dom?nenspezifische ECA-Policies

Masterarbeit, Oktober 2011

Event-Condition-Action (ECA)-Policies werden als Reaktionsregeln eingesetzt, um dynamische Systeme automatisiert zu steuern. Die Dom?ne beinhaltet die Konzepte des dahinterliegenden Fachgebiets und deren Zusammenh?nge. Um von konkreten Sprachen zu abstrahieren wurde ein Metamodell (abstrakte Syntax) für die Spezifikation von ECA-Policies und ihrer Dom?ne auf verschiedenen Abstraktionsstufen entwickelt. Um entsprechende Modelle zu erstellen ist eine Notation (konkrete Syntax) erforderlich, die z.B. textuell oder grafisch sein kann.

Ziel der Masterarbeit ist die Entwicklung einer m?glichst geeigneten konkreten Syntax auf Grundlage der vorgegebenen abstrakten Syntax. Hierbei ist insbesondere abzuw?gen, inwiefern eine kompakte Notation der Policies am besten durch eine grafische oder textuelle Syntax erreicht werden kann, oder durch eine Mischform beider.?Im Rahmen der Arbeit soll auch eine prototypische Umsetzung in Form eines Editors erfolgen. Die entwickelte konkrete Syntax und der implementierte Editor sollen anhand einer Fallstudie demonstriert und evaluiert werden.

?

Prozessmodellontologien: Vor- und Nachteile sowie Transformationen von JWT

Diplomarbeit, Juli 2011

Der sich immer schneller ver?ndernde Markt erfordert von den Unternehmen eine zunehmend flexible Anpassungsf?higkeit an die neuen Gegebenheiten und Anforderungen. Hierfür ist es notwendig, seine meist ?u?erst komplexen und vernetzten Prozesse bzw. Prozessmodelle bestm?glich im ?berblick zu haben. Eine M?glichkeit in dieser Hinsicht Verbesserungen zu erreichen ist es, Prozessmodelle in Ontologien abzubilden. So werden in dieser Arbeit Prozessmodelle mit Hilfe von Modelltransformationssprachen in eine Ontologie übersetzt, die anschlie?end mit Werkzeugen und Methoden aus dem Umfeld des semantischen Webs bearbeitet werden k?nnen. Hierzu geh?ren Reasoner und semantische Abfragen.

?

Automatisiertes Server-Konfigurationsdeployment

Bachelorarbeit, August 2011

Die Nutzung von Webanwendungen über das Internet nimmt immer mehr zu. Auf Seiten der Anbieter erfordert dies eine solide Infrastruktur, die der steigenden Last gewachsen ist und ihre Dienste zuverl?ssig zur Verfügung stellt. Der Verwaltungsaufwand der Server-Infrastruktur nimmt dabei mit wachsender Serverzahl überproportional zu, da die Koordination zunehmend komplexer wird und zudem Abh?ngigkeiten zwischen Servern berücksichtigt werden müssen. Um einen ?berblick über die verschiedenen Konfigurationen zu behalten und konsistente Administration sicherzustellen empfiehlt sich der Einsatz speziell für diesen Zweck entwickelter Software. Diese Arbeit setzt sich mit der Automatisierung von Serverkonfigurationen auseinander. Sie gibt zun?chst eine allgemeine Einführung in die Einrichtung von Servern für statische Webseiten und für Webanwendungen. Anschlie?end wird das Configuration Management System Puppet vorgestellt, seine Funktionsweise detailliert erl?utert, sowie in einem praktischen Teil die Anwendung der beschriebenen Ma?nahmen auf eine konkrete Server-Infrastruktur beschrieben.

?

Test-getriebene Entwicklung in Ruby on Rails

Masterarbeit, September 2011

?

Semantic Resource Modeling in Business Processes

Bachelorarbeit, September 2011

?

Comparing Semantic Business Processes

Bacheloarbeit, September 2011

Bachelor-Thesis, September 2011 Comparing Semantic Business Processes Business process modeling represents the activities that undergo in a business organization. Comparing the similarity of two business process models is crucial in model maintenance when adding a process model to a repository thus checking for duplication and when two companies are merging and integrating their work. Many modern methods have been deployed to support the comparing business process models either syntactic, linguistic or semantic level, such as string edit distance and linguistic similarity measure. However, we argue that semantic approach when modeling process's is necessary when comparing business process models. This brings requirements such as business process ontologies that describe the business process knowledge domain. Semantic annotation is an approach to achieve the link between the models and the business process ontologies that capture the models semantically.

?

Transformation von ARIS-Modellen in eine Prozessbeschreibungsontologie

Diplomarbeit, September 2011

Transformation von ARIS-Modellen in eine Prozessbeschreibungsontologie.

?

?

Design und Entwicklung einer web-basierten generischen Workflowmodellierungsumgebung

Bachelorarbeit, September 2011

In dieser Arbeit wollen wir das Konzept vorstellen, wie eine web-basierte Workflowmodellierungsumgebung?? realisiert?? wird,?? die?? mit?? unterschiedlichen?? Workflow-Frameworks interagieren und die Erstellung von Workflows gem?? ihrer Workflow-Definitionen gew?hrleisten kann. In erster Linie wollen wir kl?ren, wie die clientseitige Architektur der zu entwickelnden Workflowmodellierungsumgebung konzipiert werden muss,?? damit?? sowohl?? Aspekte?? der?? Benutzerfreundlichkeit?? als?? auch?? Aspekte?? der Kommunikation?? innerhalb?? und?? au?erhalb?? der?? Komponenten?? der?? Workflowmodellierungsumgebung berücksichtigt werden. Au?erdem wollen wir die serverseitige Architektur?? konzipieren,?????? die?? die?? Aufgabe?? übernehmen?? soll,?? vorgenommene Modellierungsschritte?? des?? Benutzers???? mit?? Workflow-Modellen?? der?? einzusetzenden Workflow-Frameworks zu synchronisieren.

?

Optimierung eines SAP-basierten Bonusprozesses mit Web UI-Komponenten für Beratungsunternehmen

Masterarbeit, September 2011

Ein Bonusprozess für fachliche Mitarbeiter von Beratungsunternehmen soll am Beispiel der conovum Beratung untersucht und optimiert werden. Der bestehende SAP-basiert Prozess und erfordert manuelle Eingaben und Verrechnungen, die zumeist zentral vorgenommen werden.

Ziel ist ein m?glichst optimaler Prozess, der mit Web UI-Komponenten die Eingaben durch die Prozessbeteiligten dezentral erm?glicht und einen hohen Grad an Automatisierung erreicht. Es soll untersucht werden, in wie weit der bestehende Prozess automatisiert werden kann und wie die Datenstr?me dezentralisiert werden k?nnen. Im Rahmen der Arbeit soll eine prototypische Umsetzung erfolgen. Als UI Technik soll Web Dynpro für ABAP eingesetzt werden.

?

Developing a methodology for BRM-S

Diplomarbeit, Juli 2011

BRM-S is a framework with a graphical tool, the BRM-S Designer, for modeling business domains in a semantic as well as a syntactic way. At its current research level, a user is left alone in the decisions that lead to a BRM-S model, making this a complex and time-consuming procedure.The work at hand presents a methodology supporting the user with a semi-automatic process. First, concept candidates are extracted from domain specific documents and are being put into the Semantic and Syntactic Scope in BRM-S by expert’s acknowledgements as concepts. These concepts are then being brought into context by definitions and a full taxonomical hierarchy by linking it to an upper hierarchy, WordNet. Non-taxonomical relation candidates and their appearance in texts are extracted from domain specific documents and build the base for a heuristic which tries to give clear and manageable relation proposals to domain experts. In addition to proposing elements and relations for the Semantic and Syntactic Scope, automatic preparations are made to make modeling the Construction Scope as easy as possible for experts. Every element’s origin is stored allowing to keep the BRM-S model up-to-date following element’s creation, change and deletion. This supports traceability and by that supports a model’s lifecycle.

?

Aspektorientierte Metamodellerweiterung in Eclipse (AMIE)

Diplomarbeit, M?rz 2011

?

Definition und Anwendung von Mustern in Ontologien

Diplomarbeit, M?rz 2011

Das automatisierte Beantworten von Benutzeranfragen - wie sie in einer Supportabteilung gestellt werden - ist bislang noch ein unerreichtes Ziel. Probleme hierbei sind einmal das Verst?ndnis der Bedeutung der Anfrage über eine semantische Interpretation, das Herausfinden des Zieles der Anfrage sowie das Erfassen und Auffinden der n?tigen Informationen in einer Ontologie. Diese arbeit stellt einen Ansatz vor semantisch interpretierte Benutzeranfragen über Muster zu erkennen, welche über eine Ontologie definiert sind. Auf Basis des BRM Semantics Projekts und der darin vorgestellten Ontologie wiurde eine Definition für Muster entwickelt, über die sich der semantische inhalt von Anfragen beschreiben l?sst. Diese muter werden über einen entworfenen Algorithmus unter Verwendung von Graph Matching in einer semantischen Interpretation ausgewertet. So kann der Typ der Anfrage erkannt und darauf reagiert werden. Damit kann eine vordefinierte Aktion wie zum Beispiel die Rückgabe einer Antwort auf die Anfrage erfolgen. Nach einer thematischen Einleitung und Grundlagen wird die entwickelte Definition von Mustern vorgestellt. Anschlie?end wird der Algorithmus zur Auswertung von Mustern gezeigt und es erfolgt eine Evaluation des Verfahrens.

?

Konzeption und Evaluation eines daten?ussbasierten Algorithmus zur Clone Detection

Diplomarbeit, Februar 2011

Ein sogenanntes Anti-Pattern, also eine Art der Strukturierung von Quellcode die es in der Programmierung zu vermeiden gilt, stellt die Duplizierung dar. Auf Grund der mit einer Vervielf?ltigung einhergehenden Probleme wie beispielsweise erschwerter Wartbarkeit und erschwerter ?bersicht stellt die textbasierte Duplikatsuche, auch Clone Detection genannt, ein wohl untersuchtes Feld der Informatik dar. Da in jüngerer Vergangenheit die Bedeutung von aus Modellen generiertem Quelltext zugenommen hat, steigt das Interesse an Methodiken, die derartige Strukturen bereits in den zu Grunde liegenden Modellen erkennen. In der nachfolgenden Arbeit wird ein derartiges Vorgehen erarbeitet, das auf einer Technik des Compilerbaus, namentlich der Daten?ussanalyse, basiert. Die damit einhergehenden Vorteile liegen in den lokalen Attributierungen der Modellelemente sowie im korrekten Umgang, d.h. Terminierung mit dem richtigen Ergebnis, bei zyklischen Strukturen. Damit eine Vorstellung von den Charakteristiken des Vorgehens im Gegensatz zu anderen bereits bekannten Ans?tzen m?glich ist, wird das erarbeitete Vorgehen einem ausgew?hlten Verfahren das auf einer heuristischen Suche basiert, gegenübergestellt. Um den praktischen Nutzen der Methodik zu veranschaulichen wurden abschlie?end reale Anwendungsf?lle mit einer prototypischen Implementierung auf Klone untersucht.

2010

Transformation der TIGER Treebank in ein konstruktionsbasiertes Format

Bachelorarbeit, September 2010

?

Semantisches Early Requirement Engineering und Management

Masterarbeit, August 2010

?

Evolution von Modelltransformationen

Diplomarbeit, April 2010

Mit der wachsenden Verbreitung von Modellgetriebenen Softwareentwicklungsans?tzen im industriellen Umfeld steigen in gleichem Ma?e die Anforderungen an Entwicklungswerkzeuge. Diesem Trend folgend positionieren sich stetig neue Softwareanwendungen auf dem modellgetriebenen Anwendungsmarkt, wodurch dem Entwickler einerseits zwar immer m?chtigere Softwaretools zur Verfügung stehen. Andererseits erschweren uneinheitliche Standards innerhalb der Modellgetriebenen Softwareentwicklung auf Projektebene die Etablierung und Aufrechterhaltung einer hochintegrierten Anwendungsentwicklungslandschaft, gerade im Hinblick auf die Erweiterbarkeit um neue Applikationen. Das Konzept, welches zu einer Relativierung der Problematik beitr?gt, ist das der Modelltransformation. Sie gestattet eine automatische Konvertierung von Modellen zwischen unterschiedlichsten Formaten und damit einen anwendungsübergreifenden Einsatz von Modellen in komplexen Entwicklungsprozessen.Ein wiederkehrendes Szenario modellgetriebener Softwareentwicklungsprozesse ist die Evolution, d.h die Weiterentwicklung, von Metamodellen. Urs?chlich hierfür sind sowohl au?erplanm??ig auftretende, wie etwa fehlerkorrektive, Ma?nahmen als auch solche, die den Funktionsumfang einer Softwareapplikation erweitern und regul?rer Teil einer Produktlebenszyklusses sind. Bezogen auf ihr Ergebnis bedeutet eine Evolution von Metamodellen jedoch, dass die syntaktische und semantische Konsistenz mit den darauf aufbauenden Modelltransformationen gebrochen wird.Die Zielsetzung dieser Arbeit besteht darin, für jene Problematik eine konzeptuelle L?sungsm?glichkeit zu erarbeiten. Wie in den sp?teren Ausführungen nachgelesen werden kann, ist es hierfür zun?chst notwendig, die evolution?ren Ver?nderungen auf Metamodellebene zu bestimmen. Neben eines postevolution?ren algorithmischen Vergleichs eines Metamodells mit seiner weiterentwickelten Version verspricht die evolutionsbegleitende ?berwachung auf Modifikationen ad?quate Ergebnisse. Mit COPE wird dabei auf einen Vertreter dieses Prinzips n?her eingegangen, auch im Hinblick darauf, dass es als Basis für eine prototypische Implementierung verwendet wird. In einer zweiten Phase bedarf es der Adaption von Modelltransformationen an detektierte Metamodell?nderungen. Anpassungen lassen sich hierbei einheitlich anhand von Ersetzungsanweisungen spezifizieren, welche sich den modularen Aufbau von Modelltransformationen zu Nutze machen, um fehlerhafte Referenzen und Konzepte zu korrigieren.

?

Real-time Control of Water Distribution Networks Using Self-organizing emergent Multi-Agent Systems

Diplomarbeit, Mai 2010

2009

Implementierung von Penetration Tests für Ruby-on-Rails-Anwendungen

Diplomarbeit, September 2009

Das Internet h?lt heute eine Vielzahl interaktiver Seiten und Anwendungen bereit. Da diese vielen potenziellen Angreifern ausgesetzt sind, sollten Sicherheitslücken be- reits w?hrend der Entwicklung vermieden werden. Ziel dieser Diplomarbeit war die Analyse verschiedenster Schwachstellen und die Implementierung einer L?sung, welche Entwickler bei der Vermeidung solcher Fehler unterstützt. Ein noch recht junges Werk- zeug zur Webentwicklung stellt das Framework Ruby on Rails dar. Bei der Entwicklung von Rails-Anwendungen wird stark auf Test-Driven Development (TDD) gesetzt, weshalb eine Bibliothek entwickelt wurde, welche Methoden für Tests bereitstellt, durch die ver- schiedene Sicherheitslücken aufgedeckt werden k?nnen.
Zum besseren Verst?ndnis werden in dieser Arbeit Grundlagen von Webanwendung- en und Ruby on Rails sowie verschiedene Angriffsm?glichkeiten auf Webapplikationen vorgestellt und erl?utert. Nach einer Betrachtung unterschiedlicher Konzepte zur Erken- nung von Sicherheitslücken wird die im Laufe der Arbeit entwickelte L?sung ?Hades“ im Detail vorgestellt sowie auf die Implementierung der unterschiedlichen Angriffsfor- men eingegangen.

?

Regeln zur Effizienz- und Koordinationsverbesserung in selbst-organisierenden emergenten Systemen

Diplomarbeit, Juli 2009

?

Using Digital Infochemical Coordination for a Self-Organizing Emergent Solution to Open Shop Scheduling Problems

Masterarbeit, Juli 2009

This thesis introduces the concept of Infochemical Contracts (IC). Infochemical Contracts is a new Digital Infochemical Coordination (DIC) based decentralized coordination mechanism enabling self-organizing emergent multi-agent systems to solve open shop scheduling problems. Therefore two different concepts are combined: the abstract concepts of coordination inspired by olfactory stimuli found in nature (DIC) and the agent’s behavior found in market-based coordination approaches to scheduling problems. The abstract Digital Infochemical Coordination approach is initially adapted to scheduling problems in general. As a next step, the developed still abstract, approach for scheduling problems is instantiated to Infochemical Contracts for the computation of open shop scheduling problems. This instantiation uses infochemicals for communication and an agent behavior inspired by the Contract Net Protocol, which is an established coordination mechanism for scheduling problems.

?

Graphische Modellierung von Pickup und Delivery Problemen

Masterarbeit, Juni 2009

?

Prozessbewertung und Vergleich im Software and Systems Process Engineering Metamodel

Diplomarbeit, Mai 2009

The SPEM-metamodel, developed by OMG, is an standardized approach to model software developement processes and collect them in libraries. In its current developementstate however, the metamodel does not provide any functionallity to rate or compare those processes. This thesis develops a concept to rate software developement processes and fits those concepts into the SPEM-metamodel. Additionaly an approach to compare processes based on their ratings using special algorithms is developed. The results will be implemented in EPF and evaluated looking at the results of a case study.

?

Python-basierte PowerPoint-Dokument-Generierung

Diplomarbeit, April 2009

In dieser Diplomarbeit wird eine Bibliothek entwickelt mit der PowerPoint-Pr?sentationen erstellt werden k?nnen. Diese Pr?sentationen sollen zur Anzeige von Bildern genutzt und in dem Bin?rformat, das seit Microsoft Office 97 verwendet wird, gespeichert werden. Da die Bibliothek als Erweiterung für den an der Universit?t Augsburg eingesetzten 威尼斯赌博游戏_威尼斯赌博app-【官网】ienserver dient, musste diese Bibliothek in Python programmiert werden.

?

Integration semantischer Konzepte in die Requirement Traceability

Diplomarbeit, M?rz 2009

Anforderungsverfolgung (engl. Requirement Traceability) ist eine Disziplin des Software Engineering. Requirement Traceability behandelt – wie der Name vermutenl?sst – die Verfolgung von Software-Anforderungen. Diese Verfolgung umfasst von eben diesen Software-Anforderungen ausgehend auch Tests bis hin zu Programm-Code. Jedoch ist auch die Gegenrichtung von Interesse, bei der vom Source-Code zurück zu Anforderungen verfolgt wird. Requirement Traceability findet prim?r in umfangreichen Projekten Anwendung, da die Durchführung der Verfolgung hohen Aufwand verursacht und die damit erzielbaren positiven Aspekte in kleinen und mittleren Projekten nicht als gewinnbringend erachtet werden. Im Folgenden werden nach einer Einführung in die Requirement Traceability sowie semantischen Techniken die M?glichkeiten untersucht, die durch Forschungsergebnisse rund um das Semantic Web erm?glicht wurden. Dabei wird versucht, Computern die semantischen Zusammenh?nge von Daten so zu beschreiben, dass diese selbstst?ndig dazu in der Lage sind, Schlussfolgerungen zu ziehen und weiteres Wissen abzuleiten. Diese Arbeit untersucht die M?glichkeiten, die durch die Anwendung dieser neuen Techniken im Bereich der Requirement Traceability er?ffnet werden k?nnen.

2008

Self-organizing Service Discovery: Applying Organic Computing Techniques to Service Oriented Architectures

Diplomarbeit, Oktober 2008

Present service discovery approaches are based on registries, whose design and matching shortcoming still curb the advantages of Service-oriented Architecture applications. Thus in this thesis, a decentralized and self-organizing service discovery approach by applying nature inspired Organic Computing techniques is presented that aims to overcome these shortcoming. Discovery agents of the Self-organizing Service Discovery model automatically locate service requesters and transport their service descriptions for matching purpose to specific service providers in the network in a total decentralized manner. Thereby discovery agents are coordinated in a stigmergic self-organizing way to those service providers, that apparently offer the requested kind of service. To enhance the efficiency of the service discovery and to improve the discovery precision and recall, service discovery model extensions are presented. In order to demonstrate the efficiency and performance of the Self-organizing Service Discovery and the improvements of its extensions, the model variations are evaluated based on a simulation, whose results are promising.

?

Avoidance of Inconsistencies during the Virtual Integration of Vehicle Software

Diplomarbeit, September 2008

?

A Model-driven Approach for generating the Web Service Modeling Ontology (WSMO)

Bachelorarbeit, September 2008

?

Process Mining für semantische Gesch?ftsprozessmodelle

Diplomarbeit, September 2008

?

Semantic Web Technologien zur automatischen Prozessmodellierung - Analyse und Realisierung

Bachelorarbeit, September 2008

?

Ein Verfahren zur Struktur- und Verhaltensanalyse von UML-Diagrammen durch Attribute

Diplomarbeit, September 2008

Kurzfassung

Metamodellierung ist ein konzeptioneller Ansatz zur Formalisierung der Objektstruktur einer Anwendungsdom?ne, der aktuell in der Softwaretechnik, aber auch in anderen Bereichen der Informatik, gro?e Verbreitung findet. Im Gegensatz zu der, durch das Metamodell festgelegten, abstrakten Syntax l?sst sich die Semantik eines Modells durch die momentan zur Verfügung stehenden Methodiken jedoch nur unzureichend beschreiben und überprüfen.

Diese Arbeit entwickelt eine flexible und dynamische Technik zur statischen semantischen Analyse von Modellstrukturen, die auf einer ?bertragung des auf kontextfreien Grammatiken definierten Attributierungskonzepts auf UML-Metamodelle beruht.

Basierend auf diesem Verfahren wird zudem eine Variante des Datenflussanalyse- Algorithmus vorgestellt, die den Informationsfluss zwischen Modellelementen ermittelt, wodurch Erkenntnisse über das Verhalten auf Instanzebene gewonnen werden k?nnen.

Der praktische Einsatz der beschriebenen Techniken wird anhand eines Anwendungsbeispiels und einer prototypischen Implementierung demonstriert.

Abstract

Meta modeling is a conceptual approach to the formalization of the object structure in an application domain and is currently gaining influence in software engineering as well as other areas of computer science. However, in contrast to the definition of the abstract syntax by a meta model, the currently available methods for description and validation of model semantics are not sufficient.

This thesis develops a flexible and dynamic technique for the semantic analysis of model structures that is based on an adaption of the concept used to attribute context-free grammars and is able to operate on UML meta models. Additionally, an attribute-based variant of the data flow analysis algorithm is presented, which allows to identify the information flow between model elements in order to study the model behavior on the instance level. The practical use of the described techniques will be demonstrated on the basis of an example use case and a prototypic implementation.

?

Improving Efficiency and Coordination in Self-Organizing Emergent Systems

Diplomarbeit, September 2008

The Efficiency and Coordination Advisor (ECA) has the ability to improve efficiency and coordination in self-organizing emergent systems by analysing their runtime behaviour and deducing simple rules that allow the agents of the advised system to solve a problem that includes recurring tasks in a way that is very close to the optimum. The proposed approach retains the self-organizing property and the autonomous nature of the advised system as it is not working as a control mechanism and does not interfere with the actual execution of the system. An abstract definition of the mechanism is given as well as an instantiation of the concepts for instances of the Pickup and Delivery Problem solved with an implementation of Digital Semiochemical Coordination, an approach to design self-organizing emergent systems. An evaluation of different scenarios of the PDP shows substantial improvements for scenarios with known sub-optimal behaviour as well as for random scenarios.

?

A SOAP stack for the Qt framework

Diplomarbeit, September 2008

SOAP is a protocol for enabling communication in a distributed system. This document evaluates the SOAP protocol and compares it to other distributed computing techniques like REST, Java RMI and AJAX. Furthermore, it evaluates the Qt framework as well as existing SOAP stacks (Apache Axis2, gSOAP, SOAP::Lite and .NET); after that, the design and implementation of a SOAP stack for the Qt framework is proposed. An analysis of this system will then show whether the requirements of a SOAP toolkit could be met.

?

Evolution von APIs

Diplomarbeit, Juli 2008

?

Identifying control structures for automatic planning of process models

Bachelorarbeit, Juni 2008

?

Patterns for Semantic Business Process Modeling

Diplomarbeit, M?rz 2008

?

Integration von Semantic Web Services anhand von Prozessmodellen

Diplomarbeit, M?rz 2008

?

Ein Ansatz zur Einhaltung von systemweiten Vorgaben in selbst-organisierenden emergenten Systemen

Diplomarbeit, M?rz 2008

Die Entwicklung der Computer- und Softwaresysteme bringt den Fortschritt immer weiter. Die neuen Systeme werden aber immer komplexer und haben immer neue Herausforderungen: Sie sollen mehr autonom sein und dezentralisierte Kontrolle sowie die Selbt-Organisitation aufweisen. Die Systeme werden mehr von mehreren unabh?ngigen Komponenten aufgebaut, die mit einander interagieren. Die zunehmende Komplexit?t und solche Ph?nomene wie Emergenz macht es immer schwieriger die systemweiten Vorgaben in solchen Systemen zu kontrollieren und einzuhalten. In dieser Arbeit wird ein Ansatz zur Einhaltung von systemweiten Vorgaben in selbstorganisierenden emergenten Systemen mit dezentralisierten Koordinationsmechanismen ausgearbeitet. Anhand einer Fallstudie wird eine Realisierung des Ansatzes entwickelt und getestet.

?

Semantic Requirements - Ontologie-basierte Modellierung von Anforderungen im Software-Engineering

Masterarbeit, Januar 2008

?

Annotationen in Java-Code zur automatischen Generierung von Semantic Web Services

Diplomarbeit, Januar 2008

2007

Modellgetriebenes Enterprise Java Beans Deployment

Diplomarbeit, Oktober 2007

?

Konzepte für einen modellgetriebenen Ansatz zur Entwicklung von Policies

Diplomarbeit, September 2007

Die wachsende Komplexit?t heutiger Informationssysteme erschwert deren Entwicklung, Benutzung und Wartung erheblich. Für den Einsatz und den Betrieb solcher komplexer Systeme existiert mit dem Policy-based Management (PBM) ein vielversprechender Ansatz. Policy-basierte Systeme sollen es Administratoren erm?glichen, die Komplexit?t in den Griff zu bekommen, indem sie Richtlinien für das Systemverhalten vorgeben k?nnen und in gewissem Rahmen ?nderungen am Systemverhalten ohne Eingriffe in den Quellcode erm?glichen.

Diese Diplomarbeit analysiert verschiedene Sprachen zur Spezifikation von Policies auf der Basis von zu erstellenden Metamodellen. Darauf aufbauend wird ein generisches Metamodell entwickelt, das als generisches Repr?sentationsformat für Policies dient. Mit diesem sollen Policies sp?ter sprachunabh?ngig erfasst und in eine konkrete Spezifikationssprache übersetzen werden k?nnen. Au?erdem wird gezeigt, wie solche Transformationen vom generischen Metamodell in die Metamodelle der analysierten Sprachen aussehen k?nnen.

?

Knowledge based Annotation of Requirements and Reuse of Components

Diplomarbeit, September 2007

Software engineering nowadays is most often a very complex, inefficient, not clearly schedulable and time consuming task. Most of these facts can be related to the software methods used. These have rarely been upscaled to the needs of modern software development. Although reuse has often been called one key in the solution to those problems no methods for an automatic detection of specific artefacts exist. The development of an automatic method which identifies suitable components based on specific requirements would greatly facilitate the requirements- / software engineer's life. Yet, the standard way is to use Google or any other search engine to find matching components.

This work describes an approach to search automatically for already existing components. One major requirement behind this goal is that the user doesn't have to incorporate a lot of additional work as he would have to in other approaches. This means that he simply enters the normal requirement text into the software, which, ideally, automatically analyzes the text and recognizes all kinds of information needed. These would then be marked with tags. In a next step, the so annotated text is inserted into an ontology, which is then compared to the ontology of one other artefact at a time. In the end, a similarity and satisfaction value are returned. Both of them should help the user to find matching components more efficiently than it would take him if he did the search manually. This should reduce the amount of time needed to finish the project as also improve the overall quality.

Starting with a basic introduction about semantic software engineering, the description of the algorithm and the architecture of the prototype is shown. It is then evaluated on different parameter settings, using different example ontologies.

?

Semantikbasiertes Planen von Prozessmodellen: Evaluation und Implementierung

Diplomarbeit, September 2007

?

Organic Computing in den Oracle Core-Technologien

Diplomarbeit, September 2007

In dieser Arbeit wird Organic Computing auf die IT-Infrastruktur in Unternehmen übertragen. Anhand von drei sehr verbreiteten Produkten der Firma Oracle, die auch als Core-Technologien bezeichnet werden, und einer L?sung der Firma Fujitsu Siemens Computers wird untersucht, ob und inwieweit darin bereits Eigenschaften von Organic Computing Systemen zu finden sind und es wird untersucht, wie die Produkte weiter in Richtung Organic Computing ver?ndert werden k?nnten. Au?erdem werden Faktoren genannt, die den Einsatz von Organic Computing Systemen in Unternehmen behindern k?nnen. Abschlie?end wird die Administration der Oracle-Datenbanken in der Zentralen IT der BMW Group untersucht und bewertet.

?

Transformation of graph-oriented process models to BPEL

Diplomarbeit, September 2007

?

?bersetzung der deklarativen Modelltransformationssprache QVT-Relations in Operational Mappings

Diplomarbeit, August 2007

Die Object Management Group (OMG) führte in den 90ern die Unified Modeling Language (UML) ein, welche zun?chst in erster Linie der Unterstützung objektorientierter Softwareentwicklung dienen sollte. Inzwischen gilt Model Driven (Software) Development (MDD) als das zukünftige Vorgehensmodell für die Entwicklung von Software. Nach dem Prinzip "Alles ist ein Modell" sollen Softwaresysteme durchg?ngig mit Hilfe von Modellen beschrieben werden.

Durch QVT (Queries Views Transformations) gibt die OMG einen internationalen Standard für Modell-zu-Modell-Transformationen vor. Aufgrund der Vielzahl an existenten Modellen, welche verschiedene Sichten sowie unterschiedliche Abstraktionsniveaus beschreiben, bildet die Transformationssprache QVT die Verbindung zwischen den Modellen. Meta-Modelle definieren dabei die Modell-Syntax. QVT definiert zwei einerseits einen deklarativen Teil mit den Sprachen Relations und Core, zum anderen erweitert die Sprache Operational Mappings die deklarative Sprache um imperative Implementationsm?glichkeiten.

In dieser Diplomarbeit wurde ein Compiler entwickelt, der in Relations definierte Modell-Transformationen zu Operational Mappings übersetzt. So k?nnen beispielsweise im Falle von ?nderungen in Quell- oder Zielmodell einer Transformation die erweiterten imperativen Implementations-M?glichkeiten genutzt werden, welche bis dahin nicht erforderlich waren. Zudem ist es meist einfacher, eine Transformation zun?chst deklarativ auszudrücken, um sie sp?ter imperativ zu erweitern.

?

Sanierung von Altsysteme - Leitfaden zur Verbesserung der SW-Qualit?t am Beispiel "ATTower"

Diplomarbeit, August 2007

Die vorliegende Arbeit dokumentiert den geplanten Verlauf eines Software-Sanierungsprozesses mit dem Ziel der Erh?hung der Software-Qualit?t. Gegenstand der Untersuchung ist das Software-System ATTower zur Ausbildung von Fluglotsen, welches von der Firma ATCSim in Kaufbeuren entwickelt und weltweit eingesetzt wird. Das System wurde in den letzten Jahrzehnten (gem?? der damaligen Art und Weise wie Software entwickelt wurde) weder ingenieurm??ig noch evolution?r programmiert, d.h. die Wartung des Systems ist mittlerweilse sehr schwierig geworden, da leichte ?nderungen einen meist enormen Aufwand zur Folge haben. Erweiterungen wurden h?ufig nach dem Grundsatz des geringst m?glichen Widerstandes hinzugefügt und haben dadurch die Qualit?t der Software stetig verschlechtert. Die Wartungskosten übersteigen die derzeitigen Entwicklungskosten um ein Vielfaches. Das Unternehmen hat erkannt, dass es mit ihrem System ATTower an einem Punkt angelangt ist, an dem eine Sanierung oder vollst?ndige Neuentwicklung des Systems unumg?nglich ist.

Im Rahmen dieser Diplomarbeit wurden Vorschl?ge und Vorgehensweisen erarbeitet, wie eine Sanierung des Systems durchgeführt werden k?nnte. Die zu entwickelnde Strategie muss allerdings berücksichtigen, dass die Sanierung im laufenden Betrieb und von den Entwicklern selbst durchzuführen ist. Auf Grund der bestehenden Kundenanforderungen und den knappen Ressourcen kann es sich das Unternehmen weder leisten, die Weiterentwicklung des Systems für die Zeit der Sanierung einzufrieren, noch ein eigenes Team bereitzustellen, welches die einzelnen Sanierungsaktivit?ten plant und durchführt.

Die Diplomarbeit besteht aus drei Teilen. Im ersten Teil wird das Unternehmen mit seinem System ATTower vorgestellt und eine allgemeine Einführung in die Grundlagen der Software-Sanierung gegeben. Der zweite Teil befasst sich mit dem eigentlichen Sanierungsprozess, in dem die einzelnen Schritte der Sanierung, wie System-Analyse, Restrukturierung, Test und Nachdokumentation am Beispiel von ATTower beschrieben werden. Der dritte und letzte Teil der Diplomarbeit fasst nochmals die Schwerpunkte der Sanierung des Systems ATTower zusammen und gibt einen Ausblick auf weitere M?glichkeiten zur Verbesserung der Software-Qualit?t. Die in dieser Ausarbeitung angeschnittenen Themen, wie Software-Sanierung, Software-Wartung, Qualit?tssicherung und Software-Test geben nur einen Einblick in diese Bereiche und sind keinesfalls ein Ersatz für das Studium entsprechender Literatur.

?

Software-Versionsverwaltung und -Konfigurationsmanagement in der Elektronikentwicklung

Diplomarbeit, August 2007

?

Design und Realisierung eines regelbasierten ODX-Parsers in Java

Diplomarbeit, Juli 2007

?

Evaluation, Conception and Development of a Web-based Application supporting Eurocopter's technical helicopter documentation process for customers in the business centre Commercial Helicopters

Masterarbeit, Juli 2007

The following master work deals with the evaluation, conception and development of a web-based application supporting Eurocopter's technical helicopter documentation process for customers in the business centre of commercial helicopters. The first part of the work is a study of the main software architectures and web-application technologies. Subsequently, the helicopter documentation process will be evaluated. This evaluation consists in analysing and modelling the process mentioned above and presenting the technologies and solutions currently used. One of the results of the evaluation is that the current helicopter documentation system has to be extended with new features including for example more final assembly lines. The new system has also to fulfill requirements such as interoperability, availability, web ability, safety and so on. Many concepts can be used to achieve these requirements. The main candidates are: web services in a service oriented architecture and component based architectures such as Enterprise Java Beans. Based on the results of the evaluation, a three-tier architecture has been chosen to develop the new helicopter documentation system. The second part of the work explains how the system has been implemented and shows the results of the test phase.

?

SemAnOn Editor – Semantische Annotation und Visualisierung von Ontologien

Bachelorarbeit, Juni 2007

?

Modellgetriebene Software-Entwicklung für den Enterprise Service Bus

Diplomarbeit, Juni 2007

?

Metadatenrepository für Enterprise Application Integration

Diplomarbeit, Juni 2007

Das Information Retrieval besch?ftigt sich mit der Suche nach Informationen in gro?en Datenmengen. Eine Form der Wissensgewinnung ist die Clusteranalyse, ein Verfahren des Data Mining, die automatisch Gruppen innerhalb von Daten bildet.

Im Rahmen dieser Diplomarbeit waren verschiedene Clutering-Algorithmen und ?hnlichkeitsma?e für semistrukturierte Dokumente zu vergleichen und exemplarisch in einem Clustering-Framework zu realisieren. Vor allem für den sich immer weiter verbreitenden XML-Standard sind bereits mehrere strukturelle ?hnlichkeitsma?e entwickelt, die genauer beleutet werden sollten. Es war auch zu untersuchen, inwiefern sich ein Zusammenhang zwischen strukturellen und inhaltlichen Informationen herstellen l?sst. Au?erdem galt es weitere Informationen aus den Metadaten und Daten der Enterprise Application Integration-Plattform der MAN Roland AG zu extrahieren und in einem zentralen Repository abzulegen, um eine Suche darin zu erm?glichen.

?

Metadatenrepository für Enterprise Application Integration

Diplomarbeit, Juni 2007

Das Information Retrieval besch?ftigt sich mit der Suche nach Informationen in gro?en Datenmengen. Eine Form der Wissensgewinnung ist die Clusteranalyse, ein Verfahren des Data Mining, die automatisch Gruppen innerhalb von Daten bildet.

Im Rahmen dieser Diplomarbeit waren verschiedene Clutering-Algorithmen und ?hnlichkeitsma?e für semistrukturierte Dokumente zu vergleichen und exemplarisch in einem Clustering-Framework zu realisieren. Vor allem für den sich immer weiter verbreitenden XML-Standard sind bereits mehrere strukturelle ?hnlichkeitsma?e entwickelt, die genauer beleutet werden sollten. Es war auch zu untersuchen, inwiefern sich ein Zusammenhang zwischen strukturellen und inhaltlichen Informationen herstellen l?sst. Au?erdem galt es weitere Informationen aus den Metadaten und Daten der Enterprise Application Integration-Plattform der MAN Roland AG zu extrahieren und in einem zentralen Repository abzulegen, um eine Suche darin zu erm?glichen.

?

Entwicklung eines verteilten Verfahrens für semantisch angereicherte Servicebeschreibungen im Grid

Diplomarbeit, Mai 2007

Im Umfeld von Service Grids werden Services üblicherweise zentral auf einem bekannten Directory Service abgelegt und k?nnen anhand von hinterlegten Kriterien gesucht werden. Doch was passiert, wenn dieser zentrale Service ausf?llt? W?re eine verteilte Suche nicht fehlertoleranter und effizienter? W?re au?erdem eine semantisch angereicherte Suche, mit der passende alternative Services gefunden werden k?nnen, wünschenswert?

In dieser Diplomarbeit wurde ein Konzept entwickelt, mit dem Servicebeschreibungen durch semantische Informationen annotiert und auf Basis der Annotationen aufgefunden werden k?nnen. Das entwickelte Verfahren des Service Discovery basiert auf Peer-to-Peer-Technologie l?uft vollst?ndig verteilt ab. Ergebnis ist ein dezentraler Verzeichnisdienst, der ohne zentrale Einheit auskommt. Zus?tzlich zum theoretischen Konzept wurde das entwickelte Verfahren prototypisch implementiert und evaluiert. Die Evaluation beinhaltet eine detaillierte Analyse von Vor- und Nachteilen sowie eine genaue Laufzeitanalyse.

?

Simulation und Evaluation künstlicher Blütenbest?ubung

Diplomarbeit, Mai 2007

Einige Bereiche der Informatik sind bereits seit l?ngerer Zeit bestrebt, Ph?nomene der Natur in künstliche Systeme zu übertragen. Dabei wird unter anderem versucht, das selbst-organisierende Verhalten eines Insektenschwarms künstlich zu erzeugen und effektiv zu nutzen. Ein selbst-organisierendes System in der Biologie ist beispielsweise die Wechselwirkung zwischen Best?ubern und deren Pflanzen. Dieses basiert auf dem ?berlebensdrang einer Pflanze, die für ihr Fortbestehen Blüten mit Lockmitteln erzeugt, wie auch eines best?ubenden Insektes, das für sein Fortbestehen Nahrung in den Blüten der Pflanzen sucht. Die Symbiose, d.h. die Anstrengungen, die eine Pflanze für eine Best?ubung und ein Best?uber für das Auffinden von Nahrung auf sich nimmt, sind Bestandteil des Modells der künstlichen Blütenbest?ubung.

Die vorliegende Arbeit beschreibt für das Verst?ndnis des Systems die biologischen Hintergründe wie auch das formale Modell der künstlichen Blütenbest?ubung. Des Weiteren soll dieses Modell evaluiert werden, was die Suche einer geeigneten? Simulationsumgebung notwendig macht. Da trotz einer Menge an etablierten, bereits bestehenden Simulationsumgebungen kein geeignetes System gefunden wird, welches den Anforderungen des Modells gerecht wird, muss eine neue, für das Modell passende, Simulationsumgebung entwickelt werden. Nachdem die für die Evaluation relevanten Kriterien identifiziert sind, wird auf Basis des neu entwickelten Systems eine Bewertung des Modells der künstlichen Blütenbest?ubung durchgeführt.

?

Entwicklung eines generischen Frameworks zur Integration von Web Services in eine OSGi-basierte Service Plattform

Diplomarbeit, April 2007

?

Algorithmic Planning of Process Models - A Semantic-Based Approach

Diplomarbeit, Februar 2007

Currently the design and modelling of process models is done manually. Process changes that are necessary due to dynamic market environments are therefore expensive in terms of cost and time. SEMPA, an algorithm that is capable of automatically creating process activities from given sets of semantically annotated actions, is developed and described in this thesis.

In this context process models can be regarded as conditional plans including sequences of actions as well as more complex control structures such as parallel split, synchronization, exclusive choice, simple merge, multi-choice and synchronizing merge. In contrast to other approaches in the domain of AI planning and web service composition, the algorithm does not only build conditional plans, but also recognizes all of the afore mentioned control structures. In a subsequent step, those resutling process activities may serve as a basis for concrete implementations in the form of composite web services.

?

Konzept zur Umsetzung von Gesch?ftsprozessen mit der SAP Enterprise Service Architecture

Diplomarbeit, Januar 2007

2006

Inversion von XSLT-Transformationen

Diplomarbeit, Dezember 2006

?

Tags als Instrument zur Strukturierung von Web-Content

Bachelorarbeit, November 2006

?

Aktiver Webapplikationsschutz durch autonome Agenten

Diplomarbeit, November 2006

?

Realisierung semantikbasierter Business Rules durch Semantic Web Services

Diplomarbeit, November 2006

?

Analyse und Umsetzung von Schedulingalgorithmen zur Optimierung des Produktionsplans eines Zeitungsunternehmens

Diplomarbeit, Oktober 2006

?

Business Rule Engine Framework in Time Tracking System

Diplomarbeit, Oktober 2006

?

Untersuchung, Konzeption und prototypische Realisierung zur automatisierten Generierung von Cross-Selling-Angeboten für die Serviceberatung im Autohaus

Diplomarbeit, September 2006

?

Business Process Management mit JBoss jBPM und vergleichende Darstellung zu Standards der Workflow Management Coalition

Bachelorarbeit, Juni 2006

?

Plug-and-Play Konfigurationsmanager

Diplomarbeit, April 2006

?

Abl?sung des bisherigen Datenbanksystems auf Basis von dBase durch ein einheitliches Datenbanksystem auf Basis von Oracle im Glaswerk Augsburg der OSRAM GmbH

Diplomarbeit, M?rz 2006

?

Analyse von Suchstrategien für eine effiziente Ablaufplanung dargestellt anhand eines Beispiels aus der Luftfahrtindustrie

Diplomarbeit, M?rz 2006

?

Lifecyclemanagement von Lieferantenanbindungen

Masterarbeit, M?rz 2006

Das Verwaltungssystem für das Lifecyclemanagement von Lieferantenanbindungen (VLL) erm?glicht es Prozesse modellieren und anschlie?end durchführen. Hierzu wird zun?chst ein Prozess als eine Menge von Aktionen und Zust?nden modelliert. Die konkrete Reihenfolge der Aktionen wird dabei nicht explizit festgelegt, sondern wird dynamisch zur Laufzeit berechnet. Dazu definiert jede Aktion Vor- und Nachbedingungen in Form von Zust?nden. Sind alle Vorbedingungen einer Aktion erfüllt, so kann diese ausgeführt werden und die Nachbedingungen werden erfüllt. Die fertige Beschreibung eines Prozess kann dann in das System importiert werden, wo daraus ein konkreter Prozess erstellt wird. Bei der Durchführung dieses Prozess werden zun?chst die ausführbaren Aktionen ermittelt. Jede dieser Aktionen kann nun von einem Akteur mit der entsprechenden Rolle ausgeführt werden. Dadurch werden neue Zust?nde erfüllt, was wiederum weitere Aktionen ausführbar macht. Akteure k?nnen Menschen oder Computersysteme sein und haben mindestens eine Rolle, die sie zum Ausführen entsprechender Aktionen berechtigt. Sollte ein Arbeitsschritt nicht innerhalb einer vorgegebenen Zeitspanne ausgeführt werden, so startet eine Eskalation. Wurde ein Lieferantenanbindungsprozess erfolgreich abgeschlossen, so kann die entstandene Anbindung weiter im System kontrolliert und beeinflusst werden.

?

Konzeption und Einbettung von Web Mining Verfahren auf den Internetseiten eines E-Commerce Unternehmens

Diplomarbeit, Februar 2006

?

Integration des Content Management Systems CONTENS in den IBM Websphere Portal Server unter Berücksichtigung des Java Content Repository Standards

Diplomarbeit, Februar 2006

Die vorliegende Arbeit befasst sich mit der Integration eines Content Management Systems in einen Portal Server. Als konkrete Systeme werden CONTENS 3.0 und der IBM Websphere Portal Server 5.1 verwendet. Im Zuge der Integration werden die wesentlichen Vorteile der beiden Systeme vereint: Der effiziente Umgang mit redaktionellen Web-Inhalten auf der Seite von CONTENS und eine hochperformante Plattform für die Integration von Gesch?ftsprozessen und Anwendungen auf der Seite des Websphere Portal Servers. Das nach der Java Specification Request 170 entwickelte Java Content Repository für CONTENS kann nicht nur im Rahmen der Integrationsl?sung verwendet werden, sondern erlaubt einer Vielzahl m?glicher Anwendungen den standardisierten Zugriff auf die von CONTENS verwalteten Inhalte.

?

Development of a PHP Compiler for Mono

Diplomarbeit, Februar 2006

The goal of this diploma thesis is making PHP available as further programming language on the development platform Mono. Like that lots of new possibilities turn up. Developers can use PHP as a fully-fledged programming language for developing standalone applications outside of web pages.

In order to achieve this a compiler is developed which translates PHP scripts into Common Intermediate Language (CIL). CIL is a low level language, is entirely stack based and executed by Mono’s virtual machine. When performing the translation, PHP’s language elements need to be reproduced exactly using only CIL’s features.

PHP is a widely-used scripting language especially suited for web development. Usually scripts written in PHP aren’t standalone applications, but are embedded into HTML. Syntax and semantics are similar to the programming languages C and Perl. PHP also offers modern object oriented features. A recent survey indicates that PHP is used on more than 20 million domains worldwide, so it is the most widely used scripting language on the internet.

Mono is an open source implementation of Microsoft's .NET Framework available for Windows, Linux, UNIX, MacOS and Solaris. This is why applications developed on Mono can be used cross platform. The main focus is on the C# language, but more and more languages such as Java and Python are being supported. Libraries can also be shared between languages. Like that Mono allows developers to choose the programming language depending on the task to be solved.

Up to now PHP hasn’t been supported by Mono. This gap is closed with the compiler developed in this diploma thesis. The implementation is called PHP4Mono and can be downloaded at?http://php4mono.sourceforge.net.

2005

Performance evaluation of a Network-Wide Subsystem for Configuration Data Management

Masterarbeit, Dezember 2005

Due to the introduction of more and more complex technologies in the area of mobile communication networks the required configuration management expenses have enormously increased. Therefore Siemens has developed a new configuration management approach that shall enable 'network wide configuration management' (i.e. widely automated creation and execution of configuration updates within a mobile network). The high degree of automation shall immensely reduce the operational expenses. To verify and demonstrate the approach a corresponding experimental system has been implemented.

The objective of the thesis was to perform a performance analysis of the experimental system. Hereby tests concerning the following areas have been executed: scalability (is it possible to configure a large number of different network elements), resilience (can the system cope with a relatively long network-traffic interruption period without any data being lost), parallelization effects (does the simultaneous execution of configuration changes noticeably reduce the corresponding execution time) as well as supplementary performance tests (efficiency of data transmission).

?

?

Einbettung von Datensprachfragmenten in Message Sequence Charts und ihre Syntax- und Semantikanalyse

Diplomarbeit, Dezember 2005, Zusammenarbeit mit ESG Elektroniksystem- und Logistik-GmbH

In der Automobilindustrie werden Message Sequence Charts (MSCs) eingesetzt, um die Kommunikationsabl?ufe der Steuerger?te in Fahrzeugen zu spezifizieren. Diese Spezifikations-MSCs k?nnen in der Testphase durch Analyseprogramme automatisch mit realen Kommunikationsabl?ufen verglichen werden, um Fehler zu identifizieren.

Im MSC-Standard ist die M?glichkeit vorgesehen, Datensprachfragmente in MSCs einzubetten. Um diese Datensprache sp?ter in Tests auswerten zu k?nnen, muss sie syntaktisch und semantisch überprüft werden. Dabei entstehen aufgrund der Diagrammstruktur Probleme bezüglich der Lokalisierung von Datendeklarationen und bezüglich der Berechnung von Sichtbarkeitsbereichen.

In dieser Arbeit wurden die m?glichen Positionen von MSCs analysiert, an denen Datensprachfragmente auftreten k?nnen, eine geeignete Sprache festgelegt und ein Konzept für die Semantikanalyse entwickelt. Es wurde ein Modul, das Data Language Modul, zur Syntax- und Semantikanalyse zur Unterstützung eines Editors für MSCs implementiert.

?

Konzept eines hersteller- und technologieunabh?ngigen Konfigurationsmanagementsystems zur Konfiguration des O2 Mobilfunk-Access Netzes

Masterarbeit, Oktober 2005, Zusammenarbeit mit O2 Germany GmbH & Co. OHG, München

?

Fachkonzept für eine Schnittstelle zwischen den beiden Systemen ProPlanner (eMPlanner) und SAP R/3 bei der BMW Group

Masterarbeit, Oktober 2005, Zusammenarbeit mit der BMW Group, München

?

Ein MDA-basierter Ansatz für kollaborative Prozesse und dessen Umsetzung mit BPDM und WS-CDL

Diplomarbeit, September 2005

Im Zeitalter der Globalisierung sind Unternehmen immer st?rker vernetzt. Die bereits vorhandene technische Infrastruktur des Internets erlaubt die weltweite Kooperation zwischen den IT-Systemen eines Unternehmens und denen seiner Kunden, Zulieferer oder sonstiger Gesch?ftspartner. Meist ist diese Zusammenarbeit von langer Dauer und muss technisch zuverl?ssig funktionieren. Lange Zeit war die Systemintegration mit einem hohen Aufwand verbunden. Die Web Services Choreography Description Language verfolgt das Ziel, diesen Aufwand und die damit verbundenen Kosten zu reduzieren sowie mittels eines globalen Modells die technische Zuverl?ssigkeit zu garantieren. Die vereinbarte Kommunikationsabfolge wird durch so genannte kollaborative Prozesse spezifiziert. Diese k?nnen mit dem Business Process Definition Metamodel (BPDM) plattformunabh?ngig modelliert werden. Die Zielsetzung lautet daher, mit Hilfe der Model Driven Architecture (MDA) einen Ansatz für die ?bersetzung dieser Modelle in die Web Services Choreography Description Language zu entwickeln.

Diese Arbeit ist im Bereich der Gesch?ftsprozessmodellierung anzusiedeln. Sie beschreibt, wie die Zielsetzung durch zwei Transformationen erreicht wird und definiert die dazu notwendigen Transformationsregeln. Zudem beinhaltet sie die Spezifikation eines UML 2.0 Profils für die Web Services Choreography Description Language. Dadurch k?nnen die in einem BPDM-Modell noch unbekannten plattformspezifischen Informationen hinzugefügt und mit UML modelliert werden. Neben der Vorstellung relevanter Konzepte des Business Process Definition Metamodels und insbesondere der Web Services Choreography Description Language enth?lt die Arbeit ein Beispiel, anhand dessen die wichtigsten Transformationsregeln zusammenh?ngend angewendet werden. Zuletzt wird mit Hilfe des Eclipse Modeling Frameworks ein vereinfachtes Modell des Profils erstellt. Als praktischer Bestandteil der Arbeit erzeugt eine Java Implementierung aus den Modellinstanzen den entsprechenden Code in der Web Services Choreography Description Language.

?

Analyse und Umsetzung von Tourenplanungsalgorithmen zur Gestaltung einer effizienten Zeitungslogistik

Diplomarbeit, September 2005

?

Ontologie-basierte Modellierung und Synthese von Gesch?ftsprozessen

Diplomarbeit, Juli 2005

Die Modellierung von Gesch?ftsprozessen ist eine Aufgabe, die wichtige Entscheidungstr?ger von Firmen vornehmen und dabei ihr Fach- und Dom?nenwissen einbringen müssen, um ein Gesch?ftsfeld ausführlich und für andere verst?ndlich darzustellen. Eine etwaige ?nderung eines Teilprozesses bringt oft eine komplette Umstrukturierung der Gesch?ftsabl?ufe mit sich. Um das Gesch?ftsprozessmodell nicht manuell aktualisieren zu müssen, werden Methoden ben?tigt, die eine Unterstützung durch einen Computer erm?glichen. Die Modellierung von Gesch?ftsprozessen muss daher um semantische Informationen erweitert werden, die für eine Maschine verst?ndlich und auswertbar sind. Aufbauend auf den momentan entstehenden Standards des Semantic Web und Semantic Web Services-Umfeld k?nnen einzelne Prozesse semantisch annotiert werden. Wurden alle Prozesse durch semantische Informationen verfeinert, kann eine optimale Ausführungsreihenfolge aller Prozesse berechnet werden. Dieser sogenannte Synthesevorgang kann sowohl bei der Erstellung als auch bei einer ?nderung eines Modells durchgeführt werden und erleichtert dadurch die Arbeit des Modellierers.

Die vorliegende Arbeit beschreibt einen Ansatz, wie Gesch?ftsprozessmodelle um semantische Informationen angereichert werden k?nnen. Dafür werden zuerst die am h?ufigsten verwendeten Modelle zur Beschreibung von Gesch?ftsprozessen erkl?rt. Anschliessend werden die verschiedenen Standards des Semantic Web- und Semantic Web Services-Umfeld evaluiert und es wird beschrieben welche Ontologien für eine semantische Prozessmodellierung ben?tigt werden. Die vorhandenen Konzepte aus dem Semantic Web-Bereich werden für die speziellen Belange der Ontologie-basierten Erweiterung von Gesch?ftsprozessmodellen aufgegriffen und erweitert. Um eine Synthese der Prozesse zu erreichen, wurden verschiedene Algorithmen entwickelt. Deren Aufbau und die Ergebnisse, die nach Ausführung der Syntheseverfahren im Rahmen diverser Beispiele erzielt wurden, werden detailliert beschrieben.

Um die Algorithmen testen zu k?nnen, entstand eine prototypische Implementierung. In diesem Prototyp kann ein Gesch?ftsprozess durch ein UML2-Aktivit?tsdiagramm modelliert werden. Nach Erstellen des Modells ist es m?glich eine semantische Anreicherung der einzelnen Prozesse vorzunehmen und eine Synthese durchzuführen. Sowohl der Aufbau und die Konzepte des Programmes, als auch das zugrundeliegende Rahmenwerk und ben?tigte Komponenten des Prototyps werden erkl?rt. Abschliessend wird dessen Installation und Bedienung beschrieben, bevor ein kurzer Ausblick über m?gliche Erweiterungen der semantischen Modellierung und des Prototyps die Arbeit abrundet.

?

Konzeption und Implementierung eines Monitoringtools zur ?berwachung dezentraler Server-Systeme

Diplomarbeit, Juli 2005, Zusammenarbeit mit dem Rechenzentrum der Uni Augsburg

Unternehmensnetze wachsen schnell in ihrer Gr??e und ihrer Komplexit?t. Immer mehr Systeme und vernetzte Anwendungen werden integriert. Die ?berwachung dieser Netzwerke auf Verfügbarkeit und Funktionsf?higkeit ist daher eine stetig wachsende Aufgabe für die Administratoren. Aus diesem Grunde ist der Einsatz eines Monitoringtools, welches diese Aufgabe erleichtert, für die Administratoren unentbehrlich. In dieser Diplomarbeit wird ein neuartiges Konzept für ein Monitoringtool entwickelt und ein Prototyp realisiert.

Ein komplexes Netzwerk kann in drei Ebenen unterteilt werden, die Netz-, Hardware- und Dienst-ebene. Die Elemente dieser Ebenen stehen sowohl schichtintern als auch schichtübergreifend in Abh?ngigkeit zueinander. Zum besseren Verst?ndnis der Abh?ngigkeiten innerhalb der Dienstebene wird eine Einführung in das Mailsystem der Wirtschaftwissenschaftlichen Fakult?t gegeben. Anhand dieses Beispiels werden die diversen Abh?ngigkeitsformen der Dienstebene veranschaulicht. Um eine sinnvolle ?berwachung zu gew?hrleisten, müssen diese Abh?ngigkeitsstrukturen berücksichtigt werden. Auf dem Markt gibt es zum jetzigen Zeitpunkt kein Tool, welches diese Aufgabe zufrieden stellend l?st.

Die vorliegende Diplomarbeit besch?ftigt sich mit der Untersuchung ob und wie das Einbinden dieser Strukturen in solch ein Konzept m?glich ist. Dabei ist darauf zu achten, dass der Konfigurationsaufwand des konzipierten Tools überschaubar bleibt. Das Ergebnis der Arbeit ist ein Konzept und dessen prototypische Implementierung, welches sowohl schichtübergreifende als auch schichtinterne Abh?ngigkeiten berücksichtigt und trotzdem -dank XML basierter Konfiguration- leicht verst?ndlich ist.

Abschlie?end werden potenzielle Erweiterungen des entwickelten Prototypen diskutiert, die für den Einsatz notwendig sind bzw. von Vorteil w?ren.

?

Effizienzuntersuchungen und prototypische Realisierung eines mobilen Ortungssystems

Diplomarbeit, Juli 2005, Zusammenarbeit mit mobilise GmbH, Augsburg

Das Ziel dieser Diplomarbeit besteht aus der prototypischen Realisierung eines mobilen Ortungssystems und den zugeh?rigen Effizienzuntersuchungen. Am Besten l?sst sich dies an einem m?glichen Einsatzszenario veranschaulichen: Eine Firma hat mehrere Aussendienstmitarbeiter im Einsatz. Diese Aussendienstmitarbeiter verfügen über Pocket PCs mit GPS-Empf?ngern, um ihre Auftr?ge zu verwalten, als auch um die Pocket PCs zur Navigation einzusetzen. Zus?tzlich sind diese Pocket PCs mit einem GPRS-Modul ausgestattet. Zur flexibleren Koordination zwischen den Aussendienstmitarbeitern und dder Firmenzentrale soll es nun von der Zentrale aus m?glich sein, die aktuellen Positionen der einzelnen Mitarbeiter zu ermitteln und zu visualisieren. Die zu entwickelnde L?sung soll m?glichst kostengünstig und bedienerfreundlich sein.

Der Umfang der Diplomarbeit l?sst sich somit in vier Aufgabenbereiche unterteilen: Evaluation unterschiedlicher ?bertragungsprotokolle und zugeh?rige Effizienzuntersuchungen, Konzeption und Entwicklung der PDA-Anwendung, Server-Anwendung und Client-Anwendung.

?

Intelligentes Customizing von Steuertabellen

Diplomarbeit, Juni 2005

?

Konzeption und Realisierung kontinuierlicher Schema- und Datenreplikationen zwischen Instanzen eines EAI-Servers und OLAP-Systemen

Diplomarbeit, Mai 2005, Zusammenarbeit mit dateITup GmbH, Augsburg

?

Erweiterung des Projektmanagements durch die Entwicklung einer webgestützten Versionsverwaltung der Projektdaten auf Basis von Subversion und Wiki

Diplomarbeit, April 2005, Zusammenarbeit mit Fujitsu Siemens Computers, Augsburg

?

Migration von ABAP nach Java basierend auf dem SAP Web Application Server der Netweaver Plattform

Diplomarbeit, April 2005, Zusammenarbeit mit ProSiebenSat.1 威尼斯赌博游戏_威尼斯赌博app-【官网】ia AG

?

Anbindung von Maschinenkomponenten an eine unternehmensweite Integrationsplattform

Diplomarbeit, M?rz 2005, Zusammen mit KUKA Schweissanlagen GmbH, Augsburg

Unternehmen müssen sich künftig schneller an ein ver?ndertes Marktumfeld anpassen und brauchen dazu eine leistungsf?hige, flexible M?glichkeit, die sie bei der Konzeption, Entwicklung und der Laufzeit-Administration ihrer Produkte unterstützt und die Konzentration auf die Kernaufgaben der Produktentwicklung bietet. Die Firma KUKA Schweissanlagen GmbH als Anlagenbauer hat diesen Trend bereits frühzeitig erkannt und setzt im Rahmen der Digitalen Fabrik auf die Integration bestehender Konstruktions- und Planungsanwendungen in die neu entwickelte Integrationsplattform InfoBus. Diese Arbeit beschreibt die notwendigen Schritte für den Entwurf und eine prototypische Integration von Anlagenkomponenten über einen OPC Web Service der angeschlossenen Maschinen an die bestehende Software-Plattform der Firma KUKA, die als anpassungsf?hige 3-Schicht-Architektur realisiert ist. Zur Visualisierung wurde die praktische Anbindung einer aufgebauten Testanlage der Firma KUKA an den InfoBus angestrebt. Aus der Problemstellung ?Integration von Maschinenkomponenten in den InfoBus“ werden L?sungsans?tze für folgende Anforderungen pr?sentiert und im entwickelten System umgesetzt. Die Aufgaben umfassen dabei die Erstellung eines Objektmodells, die Definition von Schnittstellen, die eine Kommunikation zwischen Anlagenkomponenten und BackEnd-System sowie eine Kommunikation zwischen BackEnd-System und InfoBus erm?glichen. Weiter wird eine Enterprise-Komponente (EJB) konzipiert und entwickelt, welche die Umsetzung der rohen Maschinendaten in die Programmier-APIs und das Objektmodell übernimmt. Abgeschlossen wird das Projekt mit dem Test und der Inbetriebnahme des entwickelten Prototypen.

Der zweite gro?e Bereich der Arbeit geht auf die technischen Grundlagen und Rahmenbedingungen für die Implementierung des Prototypen ein. Es werden die daraus resultierenden Vorteile bei der Implementierung und die notwendige Vorgehensweise bei der Integration und Verwendung der Module beleuchtet. Der Prototyp aus dieser Arbeit, im speziellen die Abfrage und Auslieferung der OPC-Daten auf Pr?sentationsschichtebene mit einem Web Service zur Aktualisierung der Maschinendaten in ein angeschlossenes Data Warehouse, wird als Bestandteil des BMBF-Vorhabens PROSERV verwendet.

?

Ein MDA-basierter Ansatz zur Modellierung von Organic Computing Systemen

Diplomarbeit, Januar 2005

Die Komplexit?t heutiger IT-Systeme ist mit der Komplexit?t der IT-Systeme von vor 40 Jahren kaum mehr zu vergleichen. Schnellere Rechner, gr??ere Speichermedien und h?here ?bertragungsgeschwindigkeiten führen zu immer vielseitigeren und umfassenderen Applikationen, deren Komplexit?t noch weiter steigen wird. Die Anforderungen an die Administration dieser Systeme werden dabei so hoch sein, dass sie von keinem menschlichen Wesen mehr erfüllt werden k?nnen. Daher ist es das Ziel, die Administration den Systemen selber zu überlassen, um Eingriffe von au?en vermeiden zu k?nnen und den Menschen zu entlasten. Solche selbstorganisierenden Systeme werden als Organic Computing Systeme (OCS) bezeichnet, welche durch so genannte Selbst-x Eigenschaften charakterisiert sind. Dazu geh?ren die Selbst-Konfiguration, die Selbst-Optimierung, die Selbst-Heilung und der Selbst-Schutz des Systems. Eine Schlüsselvoraussetzung für den erfolgreichen Einsatz von Organic Computing Systemen liegt dabei in ihrer Entwicklung. Aus diesem Grund wird eine konsistente und durchg?ngige Softwareentwicklungsmethodologie ben?tigt, welche es einem Entwickler erm?glicht, derartig komplexe Systeme zu entwerfen.

Diese Arbeit liefert einen Ansatz für einen modellbasierten Entwicklungsprozess als Grundlage für eine Softwareentwicklungsmethodologie für OCS. Der Ansatz basiert auf dem Framework der Model Driven Architecture, da dieses mit der Definition unterschiedlicher Abstraktionsgrade von Modellen und Modelltransformationen eine geeignete Basis für eine modellbasierte Entwicklung darstellt. Für den Ansatz werden zuerst die Prinzipien der Selbstorganisation an natürlichen, selbstorganisierenden Systemen untersucht, um ein Verst?ndnis für Selbstorganisationsmechanismen zu erhalten. Mit der Analyse eines selbstorganisierenden Produktionsplanungs- und -kontrollsystems aus der Dom?ne der Fertigungssteuerung werden Anforderungen an die Architektur selbstorganisierender IT-Systeme gesammelt und durch die Untersuchung der technischen Erzeugung von Selbst-x Eigenschaften im Autonomic Computing um konzeptionelle Anforderungen erg?nzt. Die gesammelten Anforderungen werden zur Erstellung eines Metamodells für OCS verwendet, in welches auch Konzepte aus Entwicklungsmethodologien für Multi-Agenten-Systeme einflie?en. Das Metamodell dient als Fundament des Entwicklungsprozesses, dessen entstehende Modelle so weit wie m?glich auf UML 2.0 basieren. Durch eine Evaluierung des Entwicklungsansatzes anhand einer Fallstudie werden abschlie?end Aspekte identifiziert, welche für die zukünftige Verwendung des erstellten Entwicklungsprozesses in einer Softwareentwicklungsmethodologie zu beachten sind.

2004

Modellgetriebene Gesch?ftsprozessautomatisierung

Diplomarbeit, September 2004

Die ?berwachung, Steuerung und Optimierung von Gesch?ftsprozessen sind heutzutage kritische Erfolgsfaktoren eines Unternehmens. Darüber hinaus erfordern neue Anforderungen an ein Unternehmen, die beispielsweise durch die Anpassung an neue Kunden oder Gesch?ftspartner entstehen, oft eine schnelle ?nderung von bestehenden komplexen Gesch?ftsprozessen. Ziel ist es daher, schnell ausführbare Prozesse bereitzustellen und schnell auf Prozess?nderungen reagieren zu k?nnen. In dieser Arbeit wird als m?glicher L?sungsansatz eine modellbasierte Entwicklung bzw. Architektur eingesetzt. In einer modellbasierten Entwicklung werden jedoch für die Abbildung der Gesch?ftsprozesse eines Unternehmens und der Modellierung eines Informations- und Kommunikationssystems oft unterschiedliche und nicht hinreichend integrierte Modellierungsans?tze verwendet. Dies führt zu einem ?Methodenbruch’ bei der Modellierung, so dass die Systemfunktionalit?t eines Informations- und Kommunikationssystems die Prozesse eines Unternehmens nicht korrekt oder unzureichend abbildet.
Diese Arbeit beschreibt, wie prozessorientierte Modelle eines Unternehmens auf business-level in m?glichst ?quivalente Modelle von Informations- und Kommunikationssystemen umgewandelt werden k?nnen. Dazu wird zun?chst erl?utert, wie mit dem Business Process Definition Metamodel, einer Erweiterung der Unified Modeling Language zur Gesch?ftsprozessbeschreibung, Unternehmensabl?ufe aus einer prozessorientierten Sicht beschrieben werden k?nnen. Als Hauptbeitrag dieser Arbeit wird anschlie?end eine Abbildung zwischen der Architektur integrierter Informationssysteme und dem Business Process Definition Metamodel entwickelt und mit 120 Abbildungsregeln formell spezifiziert. Schlie?lich illustriert eine Fallstudie die Anwendung der entwickelten Abbildung anhand eines Praxisbeispiels. Die in dieser Arbeit mit der Abbildung entwickelten Modelle stellen eine durchg?ngige und konsistente Prozessmodellierung von Fachabteilungen hin zu einem Informations- und Kommunikationssystem sicher und k?nnen eine Basis für eine maschinenlesbare Beschreibung von automatisierbaren Gesch?ftsprozessen bilden.

Suche