Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Magdalena Glas
Beschreibung: - Die Playbook Cyber Range bietet ein Training zur Ausbildung von Security Analyst:innen im Umgang mit Incident Response Playbooks - Auf Grundlage einer Pilotstudie, die im Dezember 2024 durchgeführt wurde, soll das Training verbessert und final evaluiert werden - Durch eine Nutzerstudie (mit ca. 30 Teilnehmer:innen) soll untersucht werden, inwiefern die ca. 60-minütige Teilnahme in einer (existierenden) Cyber Range Exercise zu einem Wissensgewinn der Teilnehmer:innen beiträgt (Lern)ziele: - Weiterentwicklung der Cyber Range - Erlernen der Grundprinzipien für die Durchführung von Nutzerstudien in der Informatik - Vorbereitung, Durchführung und Auswertung der Nutzerstudie Voraussetzungen: Interesse die eigenen Statistik-Kenntnisse aufzuwärmen, grundlegende Programmierkenntnisse
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Alexander Schiller
Das implizite Wissen, das Large Language Models (LLMs) besitzen, reicht maximal bis zum sog. „Knowledge Cutoff Date“, also dem Stichtag, an dem ihre Trainingsdaten enden. Zudem kann dieses Wissen nicht korrekt repräsentiert oder wiedergegeben werden (Stichwort Halluzinationen). Zur Umgehung dieser Limitationen kann in Retrieval Augmented Generation (RAG) Systemen die Akquisition/Aufbereitung von Kontext und die Textgenerierung durch LLMs kombiniert werden. Dabei ist die Berücksichtigung aktueller Kontextinformationen wichtig, um Aktualität auch des generierten Textes zu gewährleisten Aufgabenstellung (Weiter-)entwicklung eines bestehenden RAG-Systems zur Berücksichtigung der Aktualität von Daten Umsetzung und Evaluation des weiterentwickelten RAG-Systems Betreuung Alexander Schiller
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Bernd Heinrich , Michael Hagn
Convolutional Neural Networks (CNNs) werden heute schon sehr erfolgreich zur Klassifikation von Bildern genutzt Aufgrund ihrer Komplexität sind CNNs jedoch sogenannte „Black Box“-Modelle, weswegen Nutzer die Gründe für eine Klassenzuordnung nicht nachvollziehen können Es existieren jedoch Verfahren des Lehrstuhls für Wirtschaftsinformatik II, um die exakten Entscheidungsgrenzen von CNNs bestimmen zu können, welche zur Erklärung der Modelle und Klassenzuordnung genutzt werden können Aufgabenstellung Bestimmung und Visualisierung der Entscheidungsgrenzen von einfachen CNNs Ideengenerierung und Erstellung von Erklärungen der Klassenzuordnung des CNNs für Bilder auf Grundlage der Entscheidungsgrenzen Vergleich der erstellten Erklärungen mit existierenden Verfahren Empfohlen Interesse an Machine Learning und Spaß an Programmierung mit Python Betreuung Michael Hagn & Bernd Heinrich
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Alexander Schiller , Thomas Krapf
Machine Learning-Verfahren verwenden Trainingsdaten, um auf deren Basis allgemeingültige Muster in den Daten zu erkennen. Dies kann jedoch zu Diskriminierungsproblemen führen, etwa wenn der Algorithmus aufgrund von sensiblen Attributen wie Geschlecht oder Hautfarbe Entscheidungen trifft – was für den prüfenden Menschen nicht transparent und nachvollziehbar sein muss! Um dieser Problematik entgegenzuwirken, gibt es Methoden, welche die Fairness eines KI-Systems evaluieren und messen. Auf dieser Grundlage können Maßnahmen ergriffen werden, um die Fairness des KI-Systems zu verbessern. Aufgabenstellung Aufbauend auf Vorarbeiten: Entwicklung von Methoden zur kritischen Analyse von Verfahren zur Fairness-Messung und -Verbesserung Durchführung der Analyse bei konkreten KI-Anwendungen und Datensätzen Betreuung Thomas Krapf, Alexander Schiller
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Thomas Krapf , Paul Miethaner
Maschinelle Lernverfahren (ML-Verfahren) gewinnen weiter stark an Relevanz und übernehmen zunehmend Aufgaben in Unternehmen. Gleichzeitig sind die Verfahren aufgrund ihrer Komplexität und ihres Black Box-Charakters oft nicht transparent und deren Entscheidungen nicht nachvollziehbar. Der Forschungsbereich der Explainable Artificial Intelligence (XAI) hat daher viele Methoden zur Erklärung von ML-Verfahren hervorgebracht, um Nutzer bei ihrer ML-basierten Entscheidungsfindung zu unterstützen. Oft werden daher XAI-Methoden im Rahmen von Nutzerstudien bzgl. ihrer Nützlichkeit, Verständlichkeit, Vertrauenswürdigkeit und weiteren Kriterien evaluiert. Aufgabenstellung Identifikation, Analyse und strukturierte Aufbereitung der einschlägigen Literatur zu Nutzerstudien bzw. Human Studies von XAI-Methoden Vergleichende Diskussion der Nutzerstudien bzgl. Aufbau, Kriterien und Zielgrößen Konzeption einer validen Nutzerstudie für eine gegebene XAI-Methode (keine Durchführung!), die den recherchierten Kriterien genügt Betreuung Paul Miethaner und Thomas Krapf
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Daniel Konadl , Janik Wörner
Ein modulares AAC-System, das durch die Zusammensetzung spezialisierter Module an die individuellen Bedürfnisse der Nutzer angepasst werden kann, ist entscheidend für die effektive Kommunikation, da es die Flexibilität und Benutzerfreundlichkeit erhöht (Tönsing et al., 2022). Bestandteile: Einleitung: Vorstellung des Themas, Motivation und Zielsetzung der Arbeit. Literaturübersicht: Überblick über bestehende AAC-Systeme, deren Einschränkungen und die Relevanz modularer Systeme. Anforderungen an das System: Festlegung der funktionalen, nicht-funktionalen und technologischen Anforderungen. Design des modularen AAC-Systems: Entwicklung des Konzeptes und der Architektur, Beschreibung der modularen Komponenten und deren Interoperabilität. Entwicklung und Demo./Eval. des Systems: Beschreibung der eingesetzten Methoden und Implementierung der Module. Voraussetzungen: Interesse an literaturbasierter Arbeit und fortgeschrittene Programmierkenntnisse in Python Einstiegsliteratur: Allen, A. A., Schlosser, R. W., Brock, K. L., & Shane, H. C. (2017). The effectiveness of aided augmented input techniques for persons with developmental disabilities: A systematic review. Augmentative and Alternative Communication, 33(3), 149-159.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Daniel Konadl , Isabel Reuter
Ein State-of-the-Art-Überblick über den Einsatz von Chatbots im IT-Servicemanagement mit Fokus auf generativer KI, Anwendungsfälle und ITIL-Konformität bietet praxisnahe Einblicke in aktuelle Entwicklungen. Ziel ist es, Nutzen, Herausforderungen und Anforderungen systematisch herauszuarbeiten und ihren Beitrag zur Effizienzsteigerung im ITSM zu analysieren. Bestandteile: Einleitung: Überblick über den zunehmenden Einsatz von Chatbots im ITSM und Relevanz des Themas. Literaturübersicht: Überblick und Analyse aktueller Fachartikel zu Anwendungsfällen und technischen Entwicklungen von Chatbots + Betrachtung von generativer KI im ITSM Auswertung der Anwendungsfälle: Identifikation von Herausforderungen, Vorteilen und Risiken beim Einsatz von Chatbots + Bewertung der Auswirkungen auf das Risikomanagement. Anforderungen an den Chatbot: Erarbeitung technischer und funktionaler Anforderungen für den erfolgreichen Einsatz im ITSM. Beitrag zum IT-Servicemanagement: Analyse der Integration von Chatbots nach ITIL und deren Beitrag zur Servicequalität Diskussion, Fazit Voraussetzungen: Interesse an literaturbasierter Arbeit und Chatbots im IT-Servicemanagement Einstiegsliteratur: Fiore, D., Baldauf, M., & Thiel, C. (2019). "Forgot your password again?": acceptance and user experience of a chatbot for in-company IT support. Proceedings of the 18th International Conference on Mobile and Ubiquitous Multimedia.
Verfügbar für:
Wirtschaftsinformatik (M) , BWL (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Maximilian Wittig
Personalisierte Werbung ist ein zentrales Element des heutigen Online-Markts. Durch die Analyse des Surfverhaltens werden Nutzer:innen in Profile eingeteilt, die es Werbetreibenden ermöglichen, gezielt Anzeigen auszuspielen. Wie schnell sich ein Werbeprofil bildet, wie stabil es ist und wie sich Surfverhalten direkt auf die angezeigte Werbung auswirkt, ist jedoch bisher kaum systematisch untersucht – insbesondere nicht unter kontrollierten experimentellen Bedingungen. Ziel dieser Arbeit ist es, Browser-basierte Nutzerprofile künstlich zu simulieren, indem automatisierte Browser-Bots verschiedene Surfverhalten nachahmen. Durch den Einsatz von Large Language Models (z.B. Ollama) soll das Surfverhalten realistisch und kontextbasiert gesteuert werden. Die simulierten Nutzer (Personas) bewegen sich dabei durch definierte oder dynamisch generierte Surfpfade und beeinflussen so ihr Werbeprofil (z. B. technisch-affin, interessiert an Finanzprodukte). In dem Experiment soll untersucht werden, wie sich gezielte Browsing-Muster auf die angezeigte Werbung auswirken, welche Webseiten besonders schnell zur Profilbildung beitragen und wie differenziert personalisierte Werbung bereits nach wenigen Interaktionen ausgespielt wird. Ein möglicher technischer Startpunkt ist der Aufbau eines Browser-Automatisierungssystems mit Selenium oder Puppeteer, ergänzt durch ein KI-Modul zur Entscheidungssteuerung (z. B. Ollama API). Mögliche Forschungsfragen: 1. Wie kann das Surfverhalten typischer Online-Personas realistisch und automatisiert simuliert werden? 2. In welchem Umfang passen sich Werbeanzeigen basierend auf dem simulierten Surfverlauf an? 3. Welche Webseiten tragen besonders zur schnellen Profilbildung bei? Mögliche Methodik: 1. Aufbau eines automatisierten Browser-Bots (z.B. mit Selenium oder Puppeteer). 2. Steuerung des Browsing-Pfades durch Ollama (z.B. Auswahl der nächsten Webseite, Suchbegriffe, Klickentscheidungen). 3. Empirische Erfassung der eingeblendeten Werbung (z.B. Screenshot-Analyse, Werbelisten wie EasyList). 4. Vergleich verschiedener Personas und ihrer Surfpfade hinsichtlich der Geschwindigkeit und Differenzierung der angezeigten Werbung.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Maximilian Wittig
Das heutige Ökosystem der Online-Werbung ist hochkomplex und beruht auf zahlreichen Interaktionen zwischen Werbetreibenden, Ad-Exchanges, Demand- und Supply-Side-Plattformen sowie Data Brokern. Dieser Prozess ist für Nutzer weitgehend intransparent: Personenbezogene Daten werden an eine Vielzahl von Akteuren weitergegeben, mit denen der Nutzer keine direkte Beziehung hat. Das bestehende System bevorzugt Werbetreibende und Vermittler – oft auf Kosten der Privatsphäre der Nutzer. In der Forschung und Industrie werden daher vermehrt Ansätze entwickelt, die Nutzern mehr Transparenz und Kontrolle über den Informationsfluss im Werbeprozess ermöglichen. Ziel dieser Masterarbeit ist es, ein prototypisches System zu entwickeln, das pseudonyme Web-Targeting-Mechanismen unterstützt und dabei den Schutz der Privatsphäre stärkt. Kernidee Die Arbeit verfolgt einen Ansatz, bei dem temporäre, kontextabhängige Pseudonyme verwendet werden. Die Kommunikation soll über das Tor-Netzwerk geleitet werden, um Tracking zwischen unterschiedlichen Web-Sitzungen zu verhindern. Durch ein identitätsbasiertes Pseudonym-Management wird es möglich, Pseudonyme: - regelmäßig zu rotieren, ohne dass alte und neue Pseudonyme verknüpfbar sind. - kontextabhängig zu isolieren (z.B. unterschiedliche Pseudonyme je First-Party-Domain). Im Rahmen der Arbeit soll ein funktionaler Prototyp in Form einer Browser-Erweiterung entwickelt werden, der: - die Verwaltung und Rotation von Pseudonymen automatisiert. - sichere Tor-Circuits für die pseudonyme Kommunikation aufbaut. Mögliche Forschungsfragen 1. Wie können Pseudonyme so verwaltet und rotiert werden, dass eine Verlinkung zwischen alten und neuen Identitäten ausgeschlossen ist? 2. Welche bestehenden Privacy-Preserving Ad-Targeting-Lösungen gibt es und wie unterscheidet sich der hier entwickelte Ansatz von diesen? 3. Welche Auswirkungen hat die Nutzung des Tor-Netzwerks auf die Performanz (insbesondere Latenz) des Werbeprozesses? Welche Sicherheitsrisiken ergeben sich? Startliteratur: Towards a Lightweight and Privacy-Friendly Architecture for Online Advertising, Anonymity, Unobservability, and Pseudonymity — A Proposal for Terminology
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Marc Roßberger
Instant-Messenger sind ein grundlegender Teil unseres digitalen Alltags geworden und das menschliche Kommunikationsverhalten in diesen ist von großem Interesse. Zwar gibt es echte Datensätze, welche Einblicke in das Kommunikationsverhalten von Menschen in diesen Apps geben, jedoch sind diese mit mehreren Problemen verbunden. So sind es meist nur beschränkte anonymisierte Datensätze, wodurch mögliche Rückschlüsse stark eingeschränkt werden. In dieser Arbeit soll deshalb ein Kommunikations-Modell erstellt werden, welches simulieren kann, wie kommuniziert wird. Bestehende Literatur hat dabei z.B. die folgenden Muster erkannt: - Eine geringe Anzahl an wichtigen Kontakten - Kontaktnetzwerke bilden Gruppen/Cluster von Freunden, Verwandten, etc. - In Messengern wird während aktiven Gesprächen schnell geantwortet Basierend auf solchen Erkenntnissen und einer selbst durchgeführten Analyse von realen Messenger-Daten soll ein eigenes Kommunikationsmodell gebildet werden, z.B. ein „Markov Modulated Poisson Processes“ oder ein agentenbasiertes Modell, welches das Nutzerverhalten widerspiegeln soll. Als Datenquelle können reale Messenger-Datensätze verwendet werden [1, 2] und vorhandene Arbeiten, welche Traffic modellieren [3, 4], als Inspiration genutzt werden. Zur Evaluation der generierten Daten müssen entsprechende Metriken basierend auf den echten Datensätzen gebildet und angewandt werden . [1] https://ieeexplore.ieee.org/abstract/document/10064263 [2] https://ojs.aaai.org/index.php/ICWSM/article/view/14989 [3] https://ieeexplore.ieee.org/abstract/document/8984725 [4] https://ieeexplore.ieee.org/abstract/document/10741510
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Iuliia Grebeshok
MAIN IDEA & RESEARCH QUESTIONS Recent advances in Large Language Models (LLMs) open the door to autonomous agents capable of interpreting human investment goals expressed in natural language and converting them into executable trading strategies. This thesis focuses on designing and evaluating an LLM-powered investment agent that operates within a market simulation environment (e.g., pymarketsim). The agent should be capable of translating qualitative user input into quantitative strategy configurations aligned with user-defined risk profiles. The core objective is to build an intelligent decision layer using an LLM (e.g., GPT, Claude, etc.) that parses user instructions and maps them to simulation parameters such as portfolio composition, risk constraints, trading frequency, or agent behavior. These configurations are then passed to a trading agent that operates autonomously within the simulated environment. The thesis will explore how well LLMs can bridge the gap between human intention and algorithmic strategy design and address challenges of alignment, explainability, and robustness in AI-guided investment decisions. Possible research questions include, but are not limited to: How effectively can an LLM translate qualitative investor goals into concrete, parameterized trading strategies? What kinds of prompting, fine-tuning, or embedding techniques are most effective for aligning LLM output with financial decision logic? How do LLM-guided agents perform relative to rule-based or manually tuned agents in terms of return, risk, and responsiveness? Can LLMs adapt to user feedback or evolving preferences over time in a closed simulation loop? LITERATURE Mascioli, C., Gu, A., Wang, Y., Chakraborty, M., & Wellman, M. (2024). A Financial Market Simulation Environment for Trading Agents Using Deep Reinforcement Learning. 117–125. https://doi.org/10.1145/3677052.3698639 Liu, P., Dwarakanath, K., Vyetrenko, Svitlana S, & Balch, T. (2022). Limited or Biased: Modeling Sub-Rational Human Investors in Financial Markets. ArXiv.org. https://arxiv.org/abs/2210.08569 Byrd, D. (2025). Exploring Sentiment Manipulation by LLM-Enabled Intelligent Trading Agents. ArXiv.org. https://www.arxiv.org/abs/2502.16343
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Philipp Hartl
MAIN IDEA & RESEARCH QUESTIONS Large Language Models (LLMs), such as OpenAI's GPT or Meta's LLaMA, are increasingly being deployed in high-stakes applications, from legal document summarization to decision support in healthcare and security. However, LLMs are prone to generating "hallucinations”, outputs that are fluent but factually incorrect, raising concerns about reliability, transparency, and accountability. This thesis aims to investigate methods for uncertainty quantification in LLM outputs, particularly in the context of hallucination detection. The core objective is to evaluate the effectiveness of current approaches to detect, measure, and potentially mitigate hallucinations, and to explore how uncertainty metrics can be communicated to end users for more informed decision-making. The thesis will include both a theoretical review and a practical implementation using LLM APIs and open-source models (e.g., LLaMA, Mistral, GPT, etc.), with experiments on benchmark datasets and/or domain-specific texts (e.g., legal or medical corpora). Possible research questions include, but are not limited to: What are the current state-of-the-art techniques for uncertainty quantification in LLMs (e.g., entropy, ensemble models)? How does uncertainty estimation differ across types of LLM architectures (e.g., decoder-only vs. encoder-decoder) and model sizes? How does fine-tuning or instruction-tuning affect a model’s uncertainty calibration? How effective are these techniques in detecting hallucinations across different types of tasks (e.g., summarization, question answering, risk assessment)? What types of hallucinations can be detected using uncertainty estimates in LLMs, and what limitations persist? To what extent is uncertainty a reliable proxy for hallucination in factual generation tasks? LITERATURE Manakul, P., Liusie, A., & Gales, M. SelfCheckGPT: Zero-Resource Black-Box Hallucination Detection for Generative Large Language Models. In The 2023 Conference on Empirical Methods in Natural Language Processing. Shorinwa, O., Mei, Z., Lidard, J., Ren, A. Z., & Majumdar, A. (2024). A survey on uncertainty quantification of large language models: Taxonomy, open research challenges, and future directions. ACM Computing Surveys. Bouchard, D., & Chauhan, M. S. (2025). Uncertainty Quantification for Language Models: A Suite of Black-Box, White-Box, LLM Judge, and Ensemble Scorers. arXiv preprint arXiv:2504.19254.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Leo Poss
Workflow patterns define typical workflows in business processes and use pre- and postconditions to ensure the correct execution of activities. The modeling language BPMN offers various ways of expressing conditions, but no direct equivalent for preconditions and postconditions from workflow patterns. The master's thesis aims to develop a systematic method for transferring the pre- and postconditions described in workflow patterns into BPMN models. Various BPMN elements such as gateways, data objects, and rules are to be evaluated and used in a prototype implementation. The aim is to create a guideline for the correct and complete implementation of workflow pattern prerequisites in BPMN.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Linda Kölbel
This master's thesis aims to expand and formalize an existing BPMN-based notation for modeling safety-critical processes in industrial IoT systems. Building on the SIREN approach, the focus is on the integration and technical implementation of safety requirements from the IEC 62443 standard into standardized BPMN models. The thesis examines how security standards can be systematically embedded in model-based process representations to ensure and validate compliance. In addition, it analyzes the extent to which the extended notation can be adapted for other standards and supported by the use of LLMs for automated compliance testing.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Daniel Oberhofer
A security playbook is a predefined, structured set of actions and procedures designed to guide automated or manual responses to cyber incidents, but also to prepare by strenghening defensive efforts of an organization. As playbooks provide a mixture of actions, that are automated, and manual steps, that require human input, visualizing them within a modelling langage like BPMN might be beneficial. This thesis requires on one hand conducting a literature review about playbooks, in order to identify uniques characteristics, but also requires research on BPMN in the context of cybersecurity in order to develop a working set of modelling rules.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Leo Poss
The integration of Large Language Models (LLMs) into business process analysis enables the automated extraction of implicit ethical values and other relevant KPIs from process-related documentation. This is crucial for the development of ethically reflected business processes and for ensuring normative compliance. This master's thesis builds on the results of a previous practical seminar in which a systematic approach to extracting ethical values using LLMs, including suitable prompt engineering strategies, was designed and demonstrated. The aim of the master's thesis is to extend and generalize the work done in a previous seminar to map additional contextual factors and to be able to use the extracted information at runtime in the process. This includes a structured literature review as well as the prototypical implementation that takes into account current developments in transformer-based systems (new/larger models, prompting strategies, best practices). Prerequisites: Programming skills - N. Frick, F. Marx, “Ethics by Design: An automated approach to incorporating ethics into artificial intelligence systems,” Business & Information Systems Engineering, vol. 63, no. 5, 2021. - T. Miller, “Explanation in artificial intelligence: Insights from the social sciences,” Artificial
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Leo Poss
The integration of location information into declarative process models represents an innovative approach to improving spatio-temporal process coordination. While established imperative process models often specify static process structures, declarative modeling with MP-Declare enables a flexible definition of process constraints. The addition of location patterns promises an improved mapping of spatial dependencies in distributed business processes. The practical implementability of location patterns in declarative process management systems is to be investigated as part of the work. The focus is on developing an executable implementation of location patterns in Declare or comparable declarative frameworks. Central aspects include the formal specification of location patterns, their integration into existing Declare constructs, and the development of an execution environment to demonstrate the practical applicability of these patterns. The project aims to validate the technical feasibility using concrete process scenarios. - M. Pesic, H. Schonenberg, and W.M.P. van der Aalst, “DECLARE: Full Support for Loosely-Structured Processes,” in EDOC, 2007. - C. Cabanillas, C. Di Ciccio, J. Mendling, and A. Baumgrass, “Predictive Task Monitoring for Business Processes,” in BPM, 2014.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Maria Leitner
Background: Collaboration generally describes the cooperative work of different actors to achieve a common goal. In modern manufacturing environments, one of the most prominent forms of collaboration involves Human-Robot-Collaboration (HRC). Goal: The goal of the Master thesis is to develop a conceptual and technical framework to design and execute human-robot-collaboration (HRC) processes. Approach: * Review current state of the art * Design an architecture to design and execute collaboration processes (e.g., coexistence, synchronized, cooperation, collaboration) leveraging an open source workflow engine (e.g., CPEE, Bonita, etc.) * Develop a proof of concept implementation leveraging either offline simulators (e.g., UR Studio) or the Chairs' research lab * Demonstrate and evaluate the approach for all four collaboration types (coexistence, synchronized, cooperation, collaboration) with at least a use case References: Samhaber, S., Leitner, M. (2022). Collaborative Patterns for Workflows with Collaborative Robots. In: Sellami, M., Ceravolo, P., Reijers, H.A., Gaaloul, W., Panetto, H. (eds) Cooperative Information Systems. CoopIS 2022. Lecture Notes in Computer Science, vol 13591. Springer, Cham. https://doi.org/10.1007/978-3-031-17834-4_8
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Maria Leitner
Ziel der Arbeit ist es ein Security Testing Framework für Kollaborative Roboter zu entwickeln und eigene Tests durchzuführen. Aktueller Stand der Forschung ist eher übersichtlich und zeigt erste Möglichkeiten auf. Es gibt jedoch bereits eine Fülle von Werkzeugen, die z.B. Penetration Testing unterstützen. Jedoch gibt es in dem Bereich wenig Erfahrung im Bereich der Kollaborativen Roboter. Im Rahmen der Arbeit soll der aktuelle Stand der Technik evaluiert, ein Rahmenwerk für Security Testing von Kollaborativen Robotern erarbeitet (Welche Angriffsvektoren gibt es? Welche Technologien? Etc.) Mindestens zwei Anwendungsfälle mit offline Simulatoren werden erarbeitet und durchgeführt. Diese sollen die Herausforderungen des aktuellen Stands hervorheben und mögliche Lösungsansätze beschreiben. Referenz: Hollerer, S., Fischer, C., Brenner, B., Papa, M., Schlund, S., Kastner, W., ... & Zseby, T. (2021). Cobot attack: a security assessment exemplified by a specific collaborative robot. Procedia Manufacturing, 54, 191-196.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Mathias Kraus
Generalized Additive Models (GAMs) are very useful for several business analytics cases, because they are powerful in terms of prediction performance and still intrinsically interpretable. Your task in this thesis project will be to explore various methods and implement a method to visualize and communicate the uncertainty of explanations the GAM has learnt. You can use Bagging to train multiple GAMs and compute an average shape plot plus a confidence band. Depending on what you find in this project you can go further and communicate the uncertainty of the classifier or regressor using a preferred method of your choice. The project will be supervised by Nico Hambauer.