Verfügbar für:
Wirtschaftsinformatik (B)
für 3 Teilnehmer (3 vergeben)
Betreuer:
Magdalena Glas
Beschreibung: - Durchführen eines Security Assessment für die Infrastruktur einer bayerischen Non-Profit Organisation bestehend aus Cloud-Speicher und Website - In Zusammenarbeit mit einem Experten für Penetration Testing (Lern)ziele: - Durchführung des Security Assessments - Ableiten von Schwachstellen und Strategien zur Erhöhung der Sicherheit - Präsentation der Ergebnisse ggü. der Organisation Voraussetzungen: keine
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Magdalena Glas
Beschreibung: - Die Playbook Cyber Range bietet ein Training zur Ausbildung von Security Analyst:innen im Umgang mit Incident Response Playbooks - Auf Grundlage einer Pilotstudie, die im Dezember 2024 durchgeführt wurde, soll das Training verbessert und final evaluiert werden - Durch eine Nutzerstudie (mit ca. 30 Teilnehmer:innen) soll untersucht werden, inwiefern die ca. 60-minütige Teilnahme in einer (existierenden) Cyber Range Exercise zu einem Wissensgewinn der Teilnehmer:innen beiträgt (Lern)ziele: - Weiterentwicklung der Cyber Range - Erlernen der Grundprinzipien für die Durchführung von Nutzerstudien in der Informatik - Vorbereitung, Durchführung und Auswertung der Nutzerstudie Voraussetzungen: Interesse die eigenen Statistik-Kenntnisse aufzuwärmen, grundlegende Programmierkenntnisse
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Bernd Heinrich , Michael Hagn
Convolutional Neural Networks (CNNs) werden heute schon sehr erfolgreich zur Klassifikation von Bildern genutzt Aufgrund ihrer Komplexität sind CNNs jedoch sogenannte „Black Box“-Modelle, weswegen Nutzer die Gründe für eine Klassenzuordnung nicht nachvollziehen können Es existieren jedoch Verfahren des Lehrstuhls für Wirtschaftsinformatik II, um die exakten Entscheidungsgrenzen von CNNs bestimmen zu können, welche zur Erklärung der Modelle und Klassenzuordnung genutzt werden können Aufgabenstellung Bestimmung und Visualisierung der Entscheidungsgrenzen von einfachen CNNs Ideengenerierung und Erstellung von Erklärungen der Klassenzuordnung des CNNs für Bilder auf Grundlage der Entscheidungsgrenzen Empfohlen Interesse an Machine Learning und Spaß an Programmierung mit Python Betreuung Michael Hagn & Bernd Heinrich
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Paul Miethaner , Thomas Krapf
Machine Learning-Verfahren, insbesondere SVMs mit komplexen Kernelfunktionen und tiefe Neuronale Netze sind oft in der Lage herausragende Ergebnisse bei Klassifikationsaufgaben zu erzielen. Allerdings wäre es aus Effizienz- und Interpretierbarkeitsgründen besser, wenn einfachere Modelle dieselbe Klassifikationsleistung erreichen würden. Daher versucht man mit Hilfe von Knowledge Distillation das „Wissen“ eines komplexeren Modells an ein simpleres Modell „weiterzugeben“. Dafür gibt es viele aktuelle Ansätze aus der Forschung, welche sich für verschiedene Modelle und reale Situationen eignen. Aufgabenstellung Kurze strukturierte Literatursuche aktueller vorimplementierter Ansätze Vergleich der Methoden in Python in Bezug auf Performance und Modelltypen Betreuung Paul Miethaner und Thomas Krapf
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Paul Miethaner , Thomas Krapf
Maschinelle Lernverfahren gewinnen stark an Relevanz und übernehmen zunehmend Aufgaben in IT und Wirtschaft. Gleichzeitig sind die Verfahren aufgrund ihrer Komplexität und ihres Black Box-Charakters oft nicht transparent und deren Entscheidungen nicht nachvollziehbar. Daher wurde am Lehrstuhl eine neue Explainable Artificial Intelligence (XAI) Methode entwickelt, das die Entscheidungsgrenzen eines Machine Learning Modells visualisiert. Aufgabenstellung Konzeption neuer Funktionalitäten des Tools, welche die Analyse, Visualisierung und Interpretation der Entscheidungen maschineller Lernverfahren ermöglichen Implementierung dieser Funktionalitäten in der bestehenden Code-Basis in Python. Empfohlen Interesse und Spaß an AI / Programmierung und Visualisierung Betreuung Paul Miethaner und Thomas Krapf
Verfügbar für:
Wirtschaftsinformatik (B)
für 2 Teilnehmer (1 vergeben)
Betreuer:
Paul Miethaner , Thomas Krapf
Machine Learning-Verfahren, insbesondere SVMs mit komplexen Kernelfunktionen und tiefe Neuronale Netze sind oft in der Lage herausragende Ergebnisse bei Klassifikationsaufgaben zu erzielen. Allerdings wäre es aus Effizienz- und Interpretierbarkeitsgründen besser, wenn einfachere Modelle dieselbe Klassifikationsleistung erreichen würden. Daher versucht man mit Hilfe von Knowledge Distillation das „Wissen“ eines komplexeren Modells an ein simpleres Modell „weiterzugeben“. Dafür gibt es viele aktuelle Ansätze aus der Forschung, welche sich für verschiedene Modelle und reale Situationen eignen. Aufgabenstellung Kurze strukturierte Literatursuche aktueller vorimplementierter Ansätze Vergleich der Methoden in Python in Bezug auf Performance und Modelltypen Betreuung Paul Miethaner und Thomas Krapf
Verfügbar für:
Wirtschaftsinformatik (B)
für 3 Teilnehmer (0 vergeben)
Betreuer:
Paul Miethaner , Thomas Krapf
Maschinelle Lernverfahren gewinnen stark an Relevanz und übernehmen zunehmend Aufgaben in IT und Wirtschaft. Gleichzeitig sind die Verfahren aufgrund ihrer Komplexität und ihres Black Box-Charakters oft nicht transparent und deren Entscheidungen nicht nachvollziehbar. Daher wurde am Lehrstuhl eine neue Explainable Artificial Intelligence (XAI) Methode entwickelt, das die Entscheidungsgrenzen eines Machine Learning Modells visualisiert. Aufgabenstellung Konzeption neuer Funktionalitäten des Tools, welche die Analyse, Visualisierung und Interpretation der Entscheidungen maschineller Lernverfahren ermöglichen Implementierung dieser Funktionalitäten in der bestehenden Code-Basis in Python Empfohlen Interesse und Spaß an AI / Programmierung und Visualisierung Betreuung Paul Miethaner und Thomas Krapf
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Alexander Schiller
Das implizite Wissen, das Large Language Models (LLMs) besitzen, reicht maximal bis zum sog. „Knowledge Cutoff Date“, also dem Stichtag, an dem ihre Trainingsdaten enden. Zudem kann dieses Wissen nicht korrekt repräsentiert oder wiedergegeben werden (Stichwort Halluzinationen). Zur Umgehung dieser Limitationen kann in Retrieval Augmented Generation (RAG) Systemen die Akquisition/Aufbereitung von Kontext und die Textgenerierung durch LLMs kombiniert werden. Dabei ist die Berücksichtigung aktueller Kontextinformationen wichtig, um Aktualität auch des generierten Textes zu gewährleisten Aufgabenstellung (Weiter-)entwicklung eines bestehenden RAG-Systems zur Berücksichtigung der Aktualität von Daten Umsetzung und Evaluation des weiterentwickelten RAG-Systems Betreuung Alexander Schiller
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Bernd Heinrich , Michael Hagn
Convolutional Neural Networks (CNNs) werden heute schon sehr erfolgreich zur Klassifikation von Bildern genutzt Aufgrund ihrer Komplexität sind CNNs jedoch sogenannte „Black Box“-Modelle, weswegen Nutzer die Gründe für eine Klassenzuordnung nicht nachvollziehen können Es existieren jedoch Verfahren des Lehrstuhls für Wirtschaftsinformatik II, um die exakten Entscheidungsgrenzen von CNNs bestimmen zu können, welche zur Erklärung der Modelle und Klassenzuordnung genutzt werden können Aufgabenstellung Bestimmung und Visualisierung der Entscheidungsgrenzen von einfachen CNNs Ideengenerierung und Erstellung von Erklärungen der Klassenzuordnung des CNNs für Bilder auf Grundlage der Entscheidungsgrenzen Vergleich der erstellten Erklärungen mit existierenden Verfahren Empfohlen Interesse an Machine Learning und Spaß an Programmierung mit Python Betreuung Michael Hagn & Bernd Heinrich
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Alexander Schiller , Thomas Krapf
Machine Learning-Verfahren verwenden Trainingsdaten, um auf deren Basis allgemeingültige Muster in den Daten zu erkennen. Dies kann jedoch zu Diskriminierungsproblemen führen, etwa wenn der Algorithmus aufgrund von sensiblen Attributen wie Geschlecht oder Hautfarbe Entscheidungen trifft – was für den prüfenden Menschen nicht transparent und nachvollziehbar sein muss! Um dieser Problematik entgegenzuwirken, gibt es Methoden, welche die Fairness eines KI-Systems evaluieren und messen. Auf dieser Grundlage können Maßnahmen ergriffen werden, um die Fairness des KI-Systems zu verbessern. Aufgabenstellung Aufbauend auf Vorarbeiten: Entwicklung von Methoden zur kritischen Analyse von Verfahren zur Fairness-Messung und -Verbesserung Durchführung der Analyse bei konkreten KI-Anwendungen und Datensätzen Betreuung Thomas Krapf, Alexander Schiller
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Thomas Krapf , Paul Miethaner
Maschinelle Lernverfahren (ML-Verfahren) gewinnen weiter stark an Relevanz und übernehmen zunehmend Aufgaben in Unternehmen. Gleichzeitig sind die Verfahren aufgrund ihrer Komplexität und ihres Black Box-Charakters oft nicht transparent und deren Entscheidungen nicht nachvollziehbar. Der Forschungsbereich der Explainable Artificial Intelligence (XAI) hat daher viele Methoden zur Erklärung von ML-Verfahren hervorgebracht, um Nutzer bei ihrer ML-basierten Entscheidungsfindung zu unterstützen. Oft werden daher XAI-Methoden im Rahmen von Nutzerstudien bzgl. ihrer Nützlichkeit, Verständlichkeit, Vertrauenswürdigkeit und weiteren Kriterien evaluiert. Aufgabenstellung Identifikation, Analyse und strukturierte Aufbereitung der einschlägigen Literatur zu Nutzerstudien bzw. Human Studies von XAI-Methoden Vergleichende Diskussion der Nutzerstudien bzgl. Aufbau, Kriterien und Zielgrößen Konzeption einer validen Nutzerstudie für eine gegebene XAI-Methode (keine Durchführung!), die den recherchierten Kriterien genügt Betreuung Paul Miethaner und Thomas Krapf
Verfügbar für:
Wirtschaftsinformatik (M)
für 3 Teilnehmer (0 vergeben)
Betreuer:
Thomas Krapf , Paul Miethaner
KI-Chatbots werden in Bildung, Wirtschaft und Alltag immer wichtiger und eröffnen vielfältige Einsatzmöglichkeiten. Entwickelt als Team einen KI-Chatbot für die gemeinnützige Organisation Acker e.V. Das Projekt wurde vom Regensburger Start-Up VoluLink ins Leben gerufen. Acker e.V. betreibt eine Bildungsplattform, die zahlreiche Schulen im DACH-Raum unter anderem bei der Organisation von Schulgartenprojekten unterstützt. Ziel ist es, den Chatbot basierend auf Materialien und Wissen von Acker e.V. zu entwickeln. Dieser soll registrierte Lehrkräfte bei der Umsetzung ihrer Ackerprojekte unterstützen. Mögliche Anfragen an den Chatbot wären zum Beispiel: „Welche Aktivitäten könnte ich Mitte Mai mit einer Gruppe aus 10 Schülern auf unserem Schulacker durchführen“ „Was könnten wir neben die Tomaten pflanzen“ „Bereite mir eine dazu passende Schulstunde vor“ … Es handelt sich um ein reales IT-Projekt, welches euch möglichst viel Praxiserfahrung bieten soll. Ihr arbeitet mit einem echten Kunden und werdet bei dem Projekt außerdem von 1-2 Mentoren (IT-Mitarbeitern) von Amazon München begleitet. Aufgabenstellung Erarbeitung eines geeigneten Datenkonzepts zur Vorverarbeitung und Übergabe der Datengrundlage von Acker e.V. an den Chatbot Entwicklung und Implementierung eines funktionsfähigen Chatbot-Prototyps. Hierbei kann auf bestehende KI-Modelle (z.B. ChatGPT) zurückgegriffen werden, die Entwicklung oder das Training eines eigenes KI-Modells ist nicht nötig! Betreuung Thomas Krapf, Paul Miethaner, Amazon München
Verfügbar für:
Wirtschaftsinformatik (M)
für 2 Teilnehmer (0 vergeben)
Betreuer:
Michael Hagn , Bernd Heinrich
Convolutional Neural Networks (CNNs) werden heute schon sehr erfolgreich zur Klassifikation von Bildern genutzt Aufgrund ihrer Komplexität sind CNNs jedoch sogenannte „Black Box“-Modelle, weswegen Nutzer die Gründe für eine Klassenzuordnung nicht nachvollziehen können Es existieren jedoch Verfahren des Lehrstuhls für Wirtschaftsinformatik II, um die exakten Entscheidungsgrenzen von CNNs bestimmen zu können, welche zur Erklärung der Modelle und Klassenzuordnung genutzt werden können Aufgabenstellung Bestimmung und Visualisierung der Entscheidungsgrenzen von einfachen CNNs Ideengenerierung und Erstellung von Erklärungen der Klassenzuordnung des CNNs für Bilder auf Grundlage der Entscheidungsgrenzen Vergleich der erstellten Erklärungen mit existierenden Verfahren Empfohlen Interesse an Machine Learning und Spaß an Programmierung mit Python Betreuung Michael Hagn & Bernd Heinrich
Verfügbar für:
Wirtschaftsinformatik (M)
für 2 Teilnehmer (2 vergeben)
Betreuer:
Thomas Krapf , Alexander Schiller
Machine Learning-Verfahren verwenden Trainingsdaten, um auf deren Basis allgemeingültige Muster in den Daten zu erkennen. Dies kann jedoch zu Diskriminierungsproblemen führen, etwa wenn der Algorithmus aufgrund von sensiblen Attributen wie Geschlecht oder Hautfarbe Entscheidungen trifft – was für den prüfenden Menschen nicht transparent und nachvollziehbar sein muss! Um dieser Problematik entgegenzuwirken, gibt es Methoden, welche die Fairness eines KI-Systems evaluieren und messen. Auf dieser Grundlage können Maßnahmen ergriffen werden, um die Fairness des KI-Systems zu verbessern. Aufgabenstellung Aufbauend auf Vorarbeiten: Entwicklung einer Methode zur kritischen Analyse von Verfahren zur Fairness-Messung und -Verbesserung Durchführung der Analyse bei konkreten KI-Anwendungen und Datensätzen Betreuung Thomas Krapf, Alexander Schiller
Verfügbar für:
Wirtschaftsinformatik (M)
für 2 Teilnehmer (1 vergeben)
Betreuer:
Michael Hagn
Maschinelle Lernverfahren sind häufig sogenannte Black-Box-Modelle, deren Funktionsweise für den Nutzer direkt nicht interpretierbar ist Der Forschungsbereich Explainable AI befasst sich daher mit der Erstellung von Erklärungen, welche die Interpretierbarkeit von ML-Modellen erhöhen sollen Häufig werden dabei nur Indizien, Plausibilität und Korrelationen, jedoch keine kausalen Zusammenhänge geprüft Ein Teil der Forschung zu Explainable AI berücksichtigt jedoch bereits Causality und Causability in Methoden und Auswertungen Aufgabenstellung Identifikation, Analyse und strukturierte Aufbereitung der Literatur zu Causality und Causability im Bereich von Explainable AI und zur konkreten Messung von Causability in XAI-Methoden Beispielhafte Diskussion von Causality und Causability an einer existierenden XAI-Methode Betreuung Michael Hagn
Verfügbar für:
Wirtschaftsinformatik (M)
für 3 Teilnehmer (0 vergeben)
Betreuer:
Thomas Krapf , Paul Miethaner
Maschinelle Lernverfahren (ML-Verfahren) gewinnen weiter stark an Relevanz und übernehmen zunehmend Aufgaben in Unternehmen. Gleichzeitig sind die Verfahren aufgrund ihrer Komplexität und ihres Black Box-Charakters oft nicht transparent und deren Entscheidungen nicht nachvollziehbar. Der Forschungsbereich der Explainable Artificial Intelligence (XAI) hat daher viele Methoden zur Erklärung von ML-Verfahren hervorgebracht, um Nutzer bei ihrer ML-basierten Entscheidungsfindung zu unterstützen. Oft werden daher XAI-Methoden im Rahmen von Nutzerstudien bzgl. ihrer Nützlichkeit, Verständlichkeit, Vertrauenswürdigkeit und weiteren Kriterien evaluiert. Aufgabenstellung Identifikation, Analyse und strukturierte Aufbereitung der einschlägigen Literatur zu Nutzerstudien / Human Studies von XAI-Methoden Übergreifende Diskussion und Vergleich der Nutzerstudien bzgl. Aufbau, Kriterien und Zielgrößen Betreuung Paul Miethaner und Thomas Krapf
Verfügbar für:
Wirtschaftsinformatik (M)
für 3 Teilnehmer (1 vergeben)
Betreuer:
Paul Miethaner , Thomas Krapf
Machine Learning-Verfahren, insbesondere SVMs mit komplexen Kernelfunktionen und tiefe Neuronale Netze sind oft in der Lage herausragende Ergebnisse bei Klassifikationsaufgaben zu erzielen. Allerdings wäre es aus Effizienz- und Interpretierbarkeitsgründen besser, wenn einfachere Modelle dieselbe Klassifikationsleistung erreichen würden. Daher versucht man mit Hilfe von Knowledge Distillation das „Wissen“ eines komplexeren Modells an ein simpleres Modell „weiterzugeben“. Dafür gibt es viele aktuelle Ansätze aus der Forschung, welche sich für verschiedene Modelle und reale Situationen eignen. Aufgabenstellung Strukturierte Literatursuche aktueller und bewährter Ansätze Strukturierung und Aufbereitung der Suchergebnisse insbes. bezüglich Modelltypen Betreuung Paul Miethaner und Thomas Krapf
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Daniel Konadl
Bestandteile: Vorstellung des Themas, Motivation und Zielsetzung der Arbeit. Theoretische Einordnung: Chatbots, Ernährungsberatung, Bedeutung gesunder Ernährung, etc. Systematische und strukturierte Aufarbeitung der einschlägigen Literatur: Identifikation und Analyse von Literatur zu Chatbots im Bereich der Ernährungsgesundheit und -beratung. Strukturierte Aufarbeitung nach Funktionalitäten und unterstützten Bereichen in der Ernährungsberatung. Identifikation von Lücken: Unter anderem durch eine Zuordnung der von Chatbots leistbaren Funktionen zu den Aufgaben, welche in der Ernährungsberatung für gewöhnlich von Menschen ausgeführt werden. Herausarbeitung von Potenzialen und Herausforderungen für Chatbots in der Ernährungsberatung. Konsolidierung der Ergebnisse und Übertragung von u.a. wichtigen Funktionalitäten aus der Ernährungsberatung auf spezifischere Anwendungsgebiete mit Bezügen zu gesunder Ernährung (z.B. Darmgesundheit) Diskussion, Schlussbetrachtung und kritische Würdigung der Arbeit Voraussetzungen: Interesse an literaturbasierter Arbeit und an den Themenbereichen Ernährung und Chatbots Einstiegsliteratur: Vom Brocke, J., Simons, A., Riemer, K., Niehaves, B., Plattfaut, R., und Cleven, A. (2015). Standing on the shoulders of giants: Challenges and recommendations of literature search in information systems research. Communications of the Association for Information Systems, 37(1). Mayring, P. (2004). Qualitative content analysis. A Companion to Qualitative Research, 1(2), 159-176. Yang, Z., Khatibi, E., Nagesh, N., und Azimi, I. (2024). ChatDiet: Empowering Personalized Nutrition-Oriented Food Recommender Chatbots through an LLM-Augmented Framework. Smart Health, 32.
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Janik Wörner
Diese Bachelorarbeit untersucht die Einsatzpotenziale von Gen AI Tools vor dem Hintergrund der Unterstützung in Supportprozessen. Ziel ist es, eine fundierte Analyse der am Markt verfügbaren Technologien sowie der relevanten wissenschaftlichen Literatur durchzuführen, um Chancen, Herausforderungen und mögliche Anwendungsbereiche zur Unterstützung von Supportprozessen durch generative KI zu identifizieren. Bestandteile Einleitung: Vorstellung des Themas, Motivation und Zielsetzung der Arbeit. Theoretische Einordnung: Generative AI, (Support-)Prozesse, … HR / Verwaltung / … Literatursuche / -analyse: Identifikation bestehender Gen AI Ansätze/Tools (Lit. / Markt ) sowie deren Potenziale und Herausforderungen in Bezug auf die Unterstützung in Supportprozessen. Identifikation von Erfolgsfaktoren für den erfolgreichen Einsatz von Gen AI Tools (z. B. Vertrauenswürdigkeit, …). Bewertung der identifizierten Ansätze anhand der Erfolgsfaktoren. Diskussion der Ergebnisse und Schluss Voraussetzungen: Interesse an literaturbasierter Arbeit und der praktischen Anwendung von Generativer KI. Einstiegsliteratur: Budhwar, P., Chowdhury, S., Wood, G., Aguinis, H., Bamber, G. J., Beltran, J. R., ... & Varma, A. (2023). Human resource management in the age of generative artificial intelligence: Perspectives and research directions on ChatGPT. Human Resource Management Journal, 33(3), 606-659.
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Isabel Reuter
Ein Überblick über Reifegradmodelle für generativer KI identifiziert zentrale Dimensionen, Stufen und Bewertungskriterien. Ziel ist es, daraus ein Reifegradmodell zu entwickeln, das es Anwendern ermöglicht, den Entwicklungsstand von generativer KI systematisch zu erfassen und gezielt zu verbessern. Bestandteile: Einleitung + Grundlagen ( Begriff Generative KI + Begriff und Aufbau von Reifegradmodellen) Systematische Literaturübersicht: Überblick und Analyse grundlegender wissenschaftlicher Literatur zu Reifegradmodellen + Literatur zu generativen KI-Reifegradmodellen Auswertung der Modelle: Vergleichsanalyse (Wie sollte allgemein ein Reifegradmodell gestaltet sein vs. vorhandene Reifegradmodelle zu generativer KI), Gemeinsamkeiten und Unterschiede Ableitung eines konsolidierten Reifegradmodells für generative KI: Clusterbildung ähnlicher Konzepte; Definition der Reifegradstufen; Kriterien pro Stufe (z. B. „Initial“, „Definiert“, „Optimiert“); Festlegung von Indikatoren/ Metriken für jede Dimension Diskussion, Fazit Voraussetzungen: Interesse an literaturbasierter Arbeit und Reifegradmodellen zu generativer KI Einstiegsliteratur: Lasrado, L.A., Vatrapu, R., & Andersen, K.N. (2015). Maturity Models Development in IS Research: A Literature Review. Knackstedt, R., Pöppelbuß, J., & Becker, J. (2009). Vorgehensmodell zur Entwicklung von Reifegradmodellen. Wirtschaftsinformatik.
Verfügbar für:
Wirtschaftsinformatik (B)
für 2 Teilnehmer (2 vergeben)
Betreuer:
Volker Berg
Ein bestehendes Haushaltstool, das aktuell in PHP implementiert ist, soll erweitert und zukunftsfähig gemacht werden. Dazu wird es in Python mit dem Framework Flask neu umgesetzt. Bestandteile des Projekts: Identifizierung der Funktionen (Frontend und Backend) Modellierung einer neuen Datenbankstruktur Erstellung eines Prototyps (Design, Menüstruktur etc.) Programmierung der Applikation Voraussetzung: Kenntnisse in Python, Linux und MySQL
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Daniel Konadl , Janik Wörner
Ein modulares AAC-System, das durch die Zusammensetzung spezialisierter Module an die individuellen Bedürfnisse der Nutzer angepasst werden kann, ist entscheidend für die effektive Kommunikation, da es die Flexibilität und Benutzerfreundlichkeit erhöht (Tönsing et al., 2022). Bestandteile: Einleitung: Vorstellung des Themas, Motivation und Zielsetzung der Arbeit. Literaturübersicht: Überblick über bestehende AAC-Systeme, deren Einschränkungen und die Relevanz modularer Systeme. Anforderungen an das System: Festlegung der funktionalen, nicht-funktionalen und technologischen Anforderungen. Design des modularen AAC-Systems: Entwicklung des Konzeptes und der Architektur, Beschreibung der modularen Komponenten und deren Interoperabilität. Entwicklung und Demo./Eval. des Systems: Beschreibung der eingesetzten Methoden und Implementierung der Module. Voraussetzungen: Interesse an literaturbasierter Arbeit und fortgeschrittene Programmierkenntnisse in Python Einstiegsliteratur: Allen, A. A., Schlosser, R. W., Brock, K. L., & Shane, H. C. (2017). The effectiveness of aided augmented input techniques for persons with developmental disabilities: A systematic review. Augmentative and Alternative Communication, 33(3), 149-159.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Daniel Konadl , Isabel Reuter
Ein State-of-the-Art-Überblick über den Einsatz von Chatbots im IT-Servicemanagement mit Fokus auf generativer KI, Anwendungsfälle und ITIL-Konformität bietet praxisnahe Einblicke in aktuelle Entwicklungen. Ziel ist es, Nutzen, Herausforderungen und Anforderungen systematisch herauszuarbeiten und ihren Beitrag zur Effizienzsteigerung im ITSM zu analysieren. Bestandteile: Einleitung: Überblick über den zunehmenden Einsatz von Chatbots im ITSM und Relevanz des Themas. Literaturübersicht: Überblick und Analyse aktueller Fachartikel zu Anwendungsfällen und technischen Entwicklungen von Chatbots + Betrachtung von generativer KI im ITSM Auswertung der Anwendungsfälle: Identifikation von Herausforderungen, Vorteilen und Risiken beim Einsatz von Chatbots + Bewertung der Auswirkungen auf das Risikomanagement. Anforderungen an den Chatbot: Erarbeitung technischer und funktionaler Anforderungen für den erfolgreichen Einsatz im ITSM. Beitrag zum IT-Servicemanagement: Analyse der Integration von Chatbots nach ITIL und deren Beitrag zur Servicequalität Diskussion, Fazit Voraussetzungen: Interesse an literaturbasierter Arbeit und Chatbots im IT-Servicemanagement Einstiegsliteratur: Fiore, D., Baldauf, M., & Thiel, C. (2019). "Forgot your password again?": acceptance and user experience of a chatbot for in-company IT support. Proceedings of the 18th International Conference on Mobile and Ubiquitous Multimedia.
Verfügbar für:
Wirtschaftsinformatik (M)
für 3 Teilnehmer (0 vergeben)
Betreuer:
Janik Wörner , Volker Berg
Dieses Seminar richtet sich an Studierende, die sich für Data Science, Softwareentwicklung und Künstliche Intelligenz interessieren. Im Rahmen dieses Seminars sollen Sie eine bestehende Data Science Toolbox von Java nach Python migrieren und um moderne Generative AI-Funktionalitäten erweitern. Bestandteile Migration der Funktionalitäten des bestehenden Tools UR:SMART (Java) nach Python Analyse des aktuellen Entwicklungsstands Identifizierung der zu migrierenden Funktionen Framework Auswahl (Flask, Django…) Programmierung der Applikation Entwicklung neuer Funktionalitäten aus dem Gebiet der Generativen KI Identifikation von Entwicklungspotenzialen vor dem Hintergrund eines Use Cases (TBD) Implementierung der identifizierten Methoden Demonstration der Funktionsweise vor dem Hintergrund des Use Cases Voraussetzungen (zwingend erforderlich): Programmierkenntnisse in Python (+ optional Java), Interesse an Data Science und Generativer KI
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Daniel Konadl
Bestandteile: Vorstellung des Themas, Motivation und Zielsetzung der Arbeit Theoretische Einordnung: Digital Healthcare, Chatbots Systematische und strukturierte Aufarbeitung der einschlägigen Information Systems Literatur Identifikation bestehender Anwendungsgebiete und Zielsetzungen sowie der Potenziale und Herausforderungen von Chatbots im Kontext von Digital Healthcare Konsolidierung der Ergebnisse, Aufzeigen von Forschungslücken und zukünftigen Forschungsmöglichkeiten Diskussion, Schlussbetrachtung und kritische Würdigung der Arbeit Voraussetzungen: Interesse an literaturbasierter Arbeit sowie an den Themenbereichen Digital Healthcare und Chatbots Einstiegsliteratur: Vom Brocke, J., Simons, A., Riemer, K., Niehaves, B., Plattfaut, R., und Cleven, A. (2015). Standing on the shoulders of giants: Challenges and recommendations of literature search in information systems research. Communications of the Association for Information Systems, 37(1). Mayring, P. (2004). Qualitative content analysis. A Companion to Qualitative Research, 1(2), 159-176. Meier, P., Beinke, J. H., Fitte, C., Behne, A., und Teuteberg, F. (2019). FeelFit-Design and Evaluation of a Conversational Agent to Enhance Health Awareness. Proceedings of the 40th International Conference on Information Systems.
Verfügbar für:
Wirtschaftsinformatik (M)
für 2 Teilnehmer (2 vergeben)
Betreuer:
Janik Wörner
Das Seminar untersucht den Einsatz generativer Künstlicher Intelligenz (KI) bei der Entwicklung von Geschäftsprozessen. Generative KI, die durch maschinelles Lernen und neuronale Netzwerke in der Lage ist, kreative Prozesse nachzuahmen und neue Inhalte zu erstellen, bietet vielfältige Anwendungsmöglichkeiten in der Wirtschaft. Ziel dieser Arbeit ist es, durch eine umfassende Literaturübersicht die Potenziale und Herausforderungen von generativer KI in der Geschäftsprozessentwicklung mittels BPM zu identifizieren und zu analysieren. Bestandteile Einleitung: Vorstellung des Themas, Motivation und Zielsetzung der Arbeit. Theoretische Einordnung: Generative AI, Grundlagen Entwicklung von Geschäftsprozessen, BPM, … Literatursuche / -analyse: Identifikation bestehender Ansätze zur Integration von Gen AI in den Entwicklungsprozess sowie deren Potenziale und Herausforderungen. Identifikation von Erfolgsfaktoren für den erfolgreichen Einsatz. Bewertung der identifizierten Ansätze anhand der Erfolgsfaktoren. Diskussion der Ergebnisse und Schluss Voraussetzungen: Interesse an literaturbasierter Arbeit und den Themen Generativer KI / Geschäftsmodellentwicklung. Einstiegsliteratur: Beheshti et al., "ProcessGPT: Transforming Business Process Management with Generative Artificial Intelligence," 2023 IEEE International Conference on Web Services (ICWS), Chicago, IL, USA, 2023, pp. 731-739, doi: 10.1109/ICWS60048.2023.00099
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Isabel Reuter
Das Thema analysiert die kritischen Erfolgsfaktoren, die für eine erfolgreiche Implementierung von Green Lean Six Sigma (GLSS) notwendig sind. Ziel ist es, aus der bestehenden Forschung zentrale Faktoren abzuleiten, die den Erfolg nachhaltiger Prozessverbesserungsprojekte beeinflussen und deren Bedeutung sowie Wechselwirkungen zu bewerten. Bestandteile Einleitung: Vorstellung des Themas, Motivation und Zielsetzung der Arbeit. Theoretische Einordnung: Green Lean Six Sigma (GLSS), Kritische Erfolgsfaktoren Inhalt: Systematischer Literature Review mit Untersuchung der GLSS-Literatur zu Erfolgsfaktoren und Herausforderungen Systematische Darstellung der wesentlichen Faktoren für den Erfolg von GLSS-Projekten Auffälligkeiten vorhanden? (Häufigkeit von bestimmten Faktoren, Wechselwirkungen, …) Ableitung von Best Practice Diskussion der Ergebnisse und Fazit Voraussetzungen: Interesse an Six Sigma/ Lean Management / ökologischer Nachhaltigkeit Einstiegsliteratur: Kaswan, M.S., & Rathi, R. (2020). Green Lean Six Sigma for sustainable development: Integration and framework. Environmental Impact Assessment Review, 83, 106396.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Isabel Reuter
Die Arbeit zielt darauf ab, wissenschaftliche Literatur über Chatbots zu kritischen Erfolgsfaktoren systematisch zu analysieren und deren Ausprägung in unterschiedlichen Anwendungskontexten zu vergleichen. Dadurch wird erkennbar, ob und wie sich branchenspezifische Anforderungen auf den Erfolg von Chatbot-Anwendungen auswirken. Bestandteile Einleitung: Vorstellung des Themas, Motivation und Zielsetzung der Arbeit. Theoretische Einordnung: Begriffliche Abgrenzung und Klassifikation von Chatbots, Kritische Erfolgsfaktoren Inhalt: Systematischer Literature Review: Überblick und Analyse aktueller Fachartikel zu Anwendungsfällen und technischen Entwicklungen von Chatbots die kritische Erfolgsfaktoren beschreiben, beschränkt auf einen Anwendungskontext (z. B. E-Commerce und Kundenservice) Extraktion und Kategorisierung von Erfolgsfaktoren (z. B. technologisch, nutzerzentriert, organisatorisch) Ableitung von Best Practice Diskussion der Ergebnisse und Fazit Voraussetzungen: Interesse an literaturbasierter Arbeit und kritischen Erfolgsfaktoren von Chatbots Einstiegsliteratur: Skuridin, A., & Wynn, M.G. (2024). Chatbot Design and Implementation: Towards an Operational Model for Chatbots. Inf., 15, 226. Zhang, J.J., Følstad, A., & Bjørkli, C.A. (2021). Organizational Factors Affecting Successful Implementation of Chatbots for Customer Service. Journal of Internet Commerce, 22, 122 - 156.
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Marc Roßberger
Instant-Messenger sind ein grundlegender Teil unseres digitalen Alltags geworden und das menschliche Kommunikationsverhalten in diesen ist von großem Interesse. Zwar gibt es echte Datensätze, welche Einblicke in das Kommunikationsverhalten von Menschen in diesen Apps geben, jedoch sind diese mit mehreren Problemen verbunden. So sind es meist nur beschränkte anonymisierte Datensätze, wodurch mögliche Rückschlüsse stark eingeschränkt werden und in der Wissenschaft oft mit vereinfachten statistischen Modellen gearbeitet wird. In dieser Arbeit sollen deswegen mithilfe von KI beschränkte reale Datensätze (z.B. [1, 2]) ausgeweitet werden. Dabei müssen die Daten evtl. bereinigt und in ein für die KI angepasstes Format gebracht werden. Es können mehrere Modelle für die Erzeugung der künstlichen Daten genutzt werden. Um abschließend evaluieren zu können, wie realistisch diese künstlichen Daten sind, müssen entsprechende Metriken definiert werden, welche beurteilen, wie nah sie an originalen Daten sind. [1] https://ieeexplore.ieee.org/abstract/document/10064263 [2] https://ojs.aaai.org/index.php/ICWSM/article/view/14989
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Maximilian Wittig
Browser-Fingerprinting ist eine probabilistische Technik, um Browser webseitenübergreifend zu re-identifizieren. Dabei werden zahlreiche Attribute eines Browsers als Quasi-Identifier genutzt, die in Kombination eine nahezu einzigartige Erkennung einer Browser-Instanz ermöglichen. Neben der Einzigartigkeit ist auch die Stabilität eines Fingerprints entscheidend – der Fingerprint sollte möglichst über einen längeren Zeitraum gültig bleiben und sich beispielsweise nicht durch ein einfaches Update ändern. Mit dem schrittweisen Ausstieg aus der Nutzung von Third-Party-Cookies rückt das Browser-Fingerprinting zunehmend in den Fokus, da es weiterhin eine Möglichkeit bietet, Nutzer webseitenübergreifend zu identifizieren und deren Online-Aktivitäten zu verfolgen. Privatsphärefreundliche Browser haben daher gezielte Schutzmechanismen implementiert, um Fingerprinting zu verhindern oder zumindest die Einzigartigkeit der Fingerprints zu reduzieren. Ziel dieser Abschlussarbeit ist es, diese Schutzmechanismen praktisch zu analysieren und zu bewerten. Dazu sollen open-source Fingerprinting-Libraries hinsichtlich der Stabilität und Einzigartigkeit der generierten Fingerprints getestet werden. Ein möglicher Startpunkt ist die Library FingerprintJS. Mögliche Forschungsfragen: 1. Welche open-source Fingerprinting-Libraries sind derzeit verfügbar und welche Browser-Attribute werden dabei typischerweise zur Erstellung es Fingerprints herangezogen? 2. Welche Schutzverfahren haben Browser praktisch implementiert, um Fingerprinting zu verhindern? 3. Wie können diese Schutzverfahren in einem Experiment auf Effektivität (Einzigartigkeit / Stabilität) getestet werden?
Verfügbar für:
Wirtschaftsinformatik (B)
für 3 Teilnehmer (0 vergeben)
Betreuer:
Maximilian Wittig
Viele Online-Dienste finanzieren sich über digitale Werbung. Das Web und das zugrunde liegende HTTP-Protokoll wurden jedoch nicht für gezieltes Nutzer-Tracking oder personalisierte Werbung entwickelt. Um Nutzer wiederzuerkennen oder bestimmte Interaktionen zu messen, setzen Akteure im Werbeökosystem unter anderem HTTP-Redirects ein. Ein typisches Beispiel: Klickt ein Nutzer auf eine Online-Werbung, wird er zunächst zu einem Werbevermittler (Ad-Broker) umgeleitet, um das Event für Preismodelle wie „Cost-per-Click“ zu loggen. Erst danach wird er zur eigentlichen Zielseite des Werbetreibenden weitergeleitet. Ziel dieses Seminars ist es, die Rolle von HTTP-Redirects im Online-Werbemarkt systematisch zu untersuchen. Es soll erarbeitet werden, in welchen Zusammenhängen und zu welchen Zwecken Redirects eingesetzt werden und in welchem Umfang diese im heutigen Web auftreten. Hierzu wird ein Datensatz mithilfe des Tools OpenWPM erstellt. OpenWPM ermöglicht es, automatisiert zahlreiche Webseiten zu besuchen und den dabei entstehenden HTTP-Traffic aufzuzeichnen. Die aufgezeichneten Daten sollen anschließend gezielt auf HTTP-Redirects hin analysiert werden. Mögliche Forschungsfragen: 1. Welche Akteure nutzen HTTP-Redirects im Online-Werbemarkt und zu welchen Zwecken? 2. Wie lang sind typische HTTP-Redirect-Ketten? 3. Welche Informationen und Tracking-Daten werden bei den Redirects üblicherweise übertragen? Startliteratur: Referrer Policy: Implementation and Circumvention. L. M. Zagi, Z. Moti, G. Acar. In Proceedings on Privacy Enhancing Technologies, 2025(3), 21 pages, 2025.
Verfügbar für:
Wirtschaftsinformatik (B)
für 3 Teilnehmer (1 vergeben)
Betreuer:
Marc Roßberger
Instant-Messenger wie WhatsApp, Telegram und Signal sind aus dem Alltag vieler Menschen nicht mehr wegzudenken. Sie haben die Art und Weise, wie wir kommunizieren, grundlegend verändert. Das Verständnis der Kommunikationsmuster in diesen Plattformen ist von großer Bedeutung, um Einblicke in das menschliche Kommunikationsverhalten zu gewinnen. Ziel dieser Seminararbeit ist es, durch die Analsye von echten Datensätzen Unterschiede zwischen privaten Chats und öffentlichen Gruppen aufzudecken. Dafür können vorhandene Datensätze aus der Literatur genutzt werden [1, 2], welche anonymisierte Chat-Verläufe enthalten. Im Rahmen dieser Analyse kann bspw. auf Reaktionszeiten, Antwortverhalten und Nachrichtenaufkommen eingegangen werden. Vorkenntnisse in Datenanalyse sind hilfreich, aber nicht notwendig. Kreativität ist bei der explorativen Auswertung sinnvoll. [1] https://ieeexplore.ieee.org/abstract/document/10064263 [2] https://ojs.aaai.org/index.php/ICWSM/article/view/14989
Verfügbar für:
Wirtschaftsinformatik (M) , BWL (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Maximilian Wittig
Personalisierte Werbung ist ein zentrales Element des heutigen Online-Markts. Durch die Analyse des Surfverhaltens werden Nutzer:innen in Profile eingeteilt, die es Werbetreibenden ermöglichen, gezielt Anzeigen auszuspielen. Wie schnell sich ein Werbeprofil bildet, wie stabil es ist und wie sich Surfverhalten direkt auf die angezeigte Werbung auswirkt, ist jedoch bisher kaum systematisch untersucht – insbesondere nicht unter kontrollierten experimentellen Bedingungen. Ziel dieser Arbeit ist es, Browser-basierte Nutzerprofile künstlich zu simulieren, indem automatisierte Browser-Bots verschiedene Surfverhalten nachahmen. Durch den Einsatz von Large Language Models (z.B. Ollama) soll das Surfverhalten realistisch und kontextbasiert gesteuert werden. Die simulierten Nutzer (Personas) bewegen sich dabei durch definierte oder dynamisch generierte Surfpfade und beeinflussen so ihr Werbeprofil (z. B. technisch-affin, interessiert an Finanzprodukte). In dem Experiment soll untersucht werden, wie sich gezielte Browsing-Muster auf die angezeigte Werbung auswirken, welche Webseiten besonders schnell zur Profilbildung beitragen und wie differenziert personalisierte Werbung bereits nach wenigen Interaktionen ausgespielt wird. Ein möglicher technischer Startpunkt ist der Aufbau eines Browser-Automatisierungssystems mit Selenium oder Puppeteer, ergänzt durch ein KI-Modul zur Entscheidungssteuerung (z. B. Ollama API). Mögliche Forschungsfragen: 1. Wie kann das Surfverhalten typischer Online-Personas realistisch und automatisiert simuliert werden? 2. In welchem Umfang passen sich Werbeanzeigen basierend auf dem simulierten Surfverlauf an? 3. Welche Webseiten tragen besonders zur schnellen Profilbildung bei? Mögliche Methodik: 1. Aufbau eines automatisierten Browser-Bots (z.B. mit Selenium oder Puppeteer). 2. Steuerung des Browsing-Pfades durch Ollama (z.B. Auswahl der nächsten Webseite, Suchbegriffe, Klickentscheidungen). 3. Empirische Erfassung der eingeblendeten Werbung (z.B. Screenshot-Analyse, Werbelisten wie EasyList). 4. Vergleich verschiedener Personas und ihrer Surfpfade hinsichtlich der Geschwindigkeit und Differenzierung der angezeigten Werbung.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Maximilian Wittig
Das heutige Ökosystem der Online-Werbung ist hochkomplex und beruht auf zahlreichen Interaktionen zwischen Werbetreibenden, Ad-Exchanges, Demand- und Supply-Side-Plattformen sowie Data Brokern. Dieser Prozess ist für Nutzer weitgehend intransparent: Personenbezogene Daten werden an eine Vielzahl von Akteuren weitergegeben, mit denen der Nutzer keine direkte Beziehung hat. Das bestehende System bevorzugt Werbetreibende und Vermittler – oft auf Kosten der Privatsphäre der Nutzer. In der Forschung und Industrie werden daher vermehrt Ansätze entwickelt, die Nutzern mehr Transparenz und Kontrolle über den Informationsfluss im Werbeprozess ermöglichen. Ziel dieser Masterarbeit ist es, ein prototypisches System zu entwickeln, das pseudonyme Web-Targeting-Mechanismen unterstützt und dabei den Schutz der Privatsphäre stärkt. Kernidee Die Arbeit verfolgt einen Ansatz, bei dem temporäre, kontextabhängige Pseudonyme verwendet werden. Die Kommunikation soll über das Tor-Netzwerk geleitet werden, um Tracking zwischen unterschiedlichen Web-Sitzungen zu verhindern. Durch ein identitätsbasiertes Pseudonym-Management wird es möglich, Pseudonyme: - regelmäßig zu rotieren, ohne dass alte und neue Pseudonyme verknüpfbar sind. - kontextabhängig zu isolieren (z.B. unterschiedliche Pseudonyme je First-Party-Domain). Im Rahmen der Arbeit soll ein funktionaler Prototyp in Form einer Browser-Erweiterung entwickelt werden, der: - die Verwaltung und Rotation von Pseudonymen automatisiert. - sichere Tor-Circuits für die pseudonyme Kommunikation aufbaut. Mögliche Forschungsfragen 1. Wie können Pseudonyme so verwaltet und rotiert werden, dass eine Verlinkung zwischen alten und neuen Identitäten ausgeschlossen ist? 2. Welche bestehenden Privacy-Preserving Ad-Targeting-Lösungen gibt es und wie unterscheidet sich der hier entwickelte Ansatz von diesen? 3. Welche Auswirkungen hat die Nutzung des Tor-Netzwerks auf die Performanz (insbesondere Latenz) des Werbeprozesses? Welche Sicherheitsrisiken ergeben sich? Startliteratur: Towards a Lightweight and Privacy-Friendly Architecture for Online Advertising, Anonymity, Unobservability, and Pseudonymity — A Proposal for Terminology
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Marc Roßberger
Instant-Messenger sind ein grundlegender Teil unseres digitalen Alltags geworden und das menschliche Kommunikationsverhalten in diesen ist von großem Interesse. Zwar gibt es echte Datensätze, welche Einblicke in das Kommunikationsverhalten von Menschen in diesen Apps geben, jedoch sind diese mit mehreren Problemen verbunden. So sind es meist nur beschränkte anonymisierte Datensätze, wodurch mögliche Rückschlüsse stark eingeschränkt werden. In dieser Arbeit soll deshalb ein Kommunikations-Modell erstellt werden, welches simulieren kann, wie kommuniziert wird. Bestehende Literatur hat dabei z.B. die folgenden Muster erkannt: - Eine geringe Anzahl an wichtigen Kontakten - Kontaktnetzwerke bilden Gruppen/Cluster von Freunden, Verwandten, etc. - In Messengern wird während aktiven Gesprächen schnell geantwortet Basierend auf solchen Erkenntnissen und einer selbst durchgeführten Analyse von realen Messenger-Daten soll ein eigenes Kommunikationsmodell gebildet werden, z.B. ein „Markov Modulated Poisson Processes“ oder ein agentenbasiertes Modell, welches das Nutzerverhalten widerspiegeln soll. Als Datenquelle können reale Messenger-Datensätze verwendet werden [1, 2] und vorhandene Arbeiten, welche Traffic modellieren [3, 4], als Inspiration genutzt werden. Zur Evaluation der generierten Daten müssen entsprechende Metriken basierend auf den echten Datensätzen gebildet und angewandt werden . [1] https://ieeexplore.ieee.org/abstract/document/10064263 [2] https://ojs.aaai.org/index.php/ICWSM/article/view/14989 [3] https://ieeexplore.ieee.org/abstract/document/8984725 [4] https://ieeexplore.ieee.org/abstract/document/10741510
Verfügbar für:
Wirtschaftsinformatik (M)
für 3 Teilnehmer (0 vergeben)
Betreuer:
Marc Roßberger
In der heutigen digitalen Welt sind Instant-Messenger wie WhatsApp, Signal, Threema und Telegram zu einem unverzichtbaren Kommunikationsmittel geworden. Durch die untrennbare Einbindung in unseren Alltag und das Versenden von immer mehr Nachrichten mit teils sehr persönlichen Inhalten sind die Sicherheit dieser Dienste und die Privatsphäre von Nutzern ein relevantes Thema. Durch Verschlüsselung ist es zwar möglich zu verbergen, welche Inhalte gesendet werden, Sender und Empfänger sind aber weiterhin sichtbar. Es existieren Anwendungen (z.B. Mix-Netzwerke), welche es ermöglichen, diese Kommunikationsbeziehungen zu verbergen, diese sind jedoch hauptsächlich für andere Anwendungsszenarien, insbesondere E-Mails ausgelegt. In diesem Seminar soll untersucht werden, wie gut die Kommunikation via Instant-Messenger anonymisiert werden kann. Dafür sollen (statistische) De-Anonymisierungs-Angriffe (z.B. SDA [1]) angewendet und evtl. für die besonderen Kommunikationsmuster in Instant-Messengern angepasst werden. [1] https://link.springer.com/chapter/10.1007/978-0-387-35691-4_40 Vorkenntnisse über Mixnetzwerke und die Angriffe (z.B. aus der Vorlesung Mehrseitige Sicherheit) sind hilfreich, aber nicht notwendig. Programmierkenntnisse sind wichtig.
Verfügbar für:
Wirtschaftsinformatik (M)
für 4 Teilnehmer (0 vergeben)
Betreuer:
Marc Roßberger
In der heutigen digitalen Welt sind Instant-Messenger wie WhatsApp, Signal, Threema und Telegram zu einem unverzichtbaren Kommunikationsmittel geworden. Doch während diese Dienste inzwischen alle standardmäßig Ende-zu-Ende-Verschlüsselung verwenden und somit die Inhalte von Nachrichten vor Dritten verbergen, kann das Kommunikationsverhalten von Teilnehmern weiterhin Rückschlüsse über deren Persönlichkeiten und Kontakte geben. In einem vorhergehenden Seminar wurde bereits erkannt, dass anhand von Netzwerkdaten (bestimmte Paket-Eigenschaften wie z.B. Paketgröße) erkannt werden kann, wann bestimmte Events auftreten (z.B. das Empfangen von Nachrichten). In diesem Seminar soll dieses Erkennen automatisiert werden. Es soll also ein Programm entwickelt werden, welches Netzwerkverkehr (in Echtzeit) analysieren und darauf basierend erkennen kann, ob und welche Events gerade in einer Messaging-App auftreten. Dafür können einfache regelbasierte Heuristiken genutzt werden, oder alternativ ML-Modelle (z.B. Decision-Trees) angewandt werden. Beispiel-Literatur: https://www.mdpi.com/2076-3417/11/17/7789
Verfügbar für:
Wirtschaftsinformatik (M)
für 3 Teilnehmer (1 vergeben)
Betreuer:
Maximilian Wittig
Digitale Werbung im Internet basiert häufig auf der Möglichkeit, Nutzer:innen über verschiedene Webseiten hinweg zu verfolgen, wofür Third-Party Cookies lange Zeit das wichtigste technische Mittel waren. In den letzten Jahren wurden Third-Party Cookies jedoch zunehmend von Browsern blockiert oder abgeschafft – beispielsweise in Safari (seit 2017), Firefox (seit 2019) und schrittweise auch in Google Chrome (geplant ab 2024*). Dies stellt das bisherige Targeting- und Bietmodell im Real-Time Bidding (RTB) grundlegend in Frage. In diesem Seminar soll untersucht werden, wie sich der Bann von Third-Party Cookies auf den Online-Werbemarkt auswirkt – insbesondere im Hinblick auf den Preis von Werbung, die Anzahl eingeblendeter Werbeanzeigen sowie den Grad der Personalisierung. Dazu sollen zwei unterschiedliche Messumgebungen geschaffen werden: ein Browser mit aktivierten Third-Party Cookies und ein Browser, der diese blockiert. Mithilfe des Tools OpenWPM oder Selenium können dazu automatisiert Webseiten besucht und Werbeauktionen beobachtet werden. Mögliche Forschungsfragen: 1. Ist Werbung ohne Third-Party Cookies im Real-Time Bidding weniger wert? (z.B. durch Analyse der Bidding-Preise) 2. Wird die Anzahl der ausgespielten Werbeanzeigen ohne Third-Party Cookies erhöht, um potenzielle Einnahmeverluste zu kompensieren? 3. Wie verändert sich die Personalisierung und Relevanz der Werbung bei deaktivierten Third-Party Cookies? Startliteratur: Zeng, E., McAmis, R., Kohno, T., & Roesner, F. (2022). What factors affect targeting and bids in online advertising? a field measurement study. Proceedings of the 22nd ACM Internet Measurement Conference, 210–229. https://doi.org/10.1145/3517745.3561460 * Third-Party Cookies werden in Chrome wohl doch nur im Inkognito-Modus deaktiviert (Quelle: https://privacysandbox.com/news/).
Verfügbar für:
Wirtschaftsinformatik (M) , BWL (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Maximilian Wittig
Das Ökosystem zur Auswahl, Auslieferung und Erfolgskontrolle von Online-Werbung ist hochkomplex. Es beruht auf zahlreichen Interaktionen zwischen verschiedenen Akteuren, die in Echtzeit Werbeflächen an den Höchstbietenden versteigern. Für den Nutzer bleibt dieser Prozess jedoch weitgehend intransparent. Personenbezogene Daten werden dabei häufig an Werbetreibende, Demand-Side-Plattformen, Supply-Side-Plattformen oder Data Broker weitergegeben – oft ohne, dass der Nutzer in einer direkten Beziehung zu diesen Parteien steht. Das aktuelle System benachteiligt somit den Nutzer. In den letzten Jahren wurden sowohl in der Wissenschaft als auch in der Industrie verschiedene Lösungsansätze entwickelt, um den Datenschutz im Werbeökosystem zu stärken. Ziel ist es, dem Nutzer a) mehr Transparenz über den Werbeprozess zu verschaffen und b) mehr Kontrolle über den Informationsfluss zu ermöglichen. Im Rahmen dieser Seminararbeit sollen wissenschaftliche Ansätze für datenschutzfreundliches Ad Targeting systematisch identifiziert, analysiert und miteinander verglichen werden. Ein besonderer Fokus liegt dabei auf dem jeweils angenommenen Angreiferszenario, dem angestrebten Schutzziel (welche Informationen sollen geschützt werden) sowie der Funktionsweise der eingesetzten Schutzmechanismen. Zusätzlich sollen Herausforderungen dieser Ansätze, etwa hinsichtlich Performance, Skalierbarkeit oder der unterstützten Werbeformen (z. B. interessenbasierte Werbung, Re-Targeting), kritisch betrachtet werden. Mögliche Forschungsfragen: 1. Welche akademischen Ansätze existieren für datenschutzfreundliches Ad Targeting? 2. Welches Angreifermodell wird in der Literatur angenommen? 3. Welche Informationen werden jeweils geschützt (z. B. die Verknüpfung eines Nutzers mit seinem Nutzerprofil)? 4. Welche Einschränkungen und Herausforderungen bestehen bei der praktischen Umsetzung dieser Ansätze (z. B. Performance, Skalierbarkeit, unterstützte Werbeformen)? Startliteratur: Adnostic, AdVeil
Verfügbar für:
Wirtschaftsinformatik (M) , BWL (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Maximilian Wittig
Das Ökosystem zur Auswahl, Auslieferung und Erfolgsmessung von Online-Werbung ist hochkomplex. Es besteht aus zahlreichen Interaktionen zwischen verschiedenen Akteuren, die Werbeplätze in Echtzeit an den Höchstbietenden versteigern. Für Nutzer bleibt dieser Prozess jedoch weitgehend intransparent, da personenbezogene Daten an Werbetreibende, Demand-Side- und Supply-Side-Plattformen sowie Data Broker weitergegeben werden – häufig ohne direkte Geschäftsbeziehung zum Nutzer. Das bestehende System benachteiligt somit die Nutzerperspektive. Sowohl in Wissenschaft als auch Industrie wurden verschiedene Lösungsansätze entwickelt, die Datenschutz und Privatsphäre im Werbeökosystem verbessern sollen. Ziel ist es, dem Nutzer a) mehr Transparenz über den Werbeprozess und b) mehr Kontrolle über die Weitergabe von Daten zu ermöglichen. Diese Seminararbeit hat zum Ziel, industrielle Ansätze für Privacy-Preserving Ad Targeting systematisch zu identifizieren, deren technische Funktionsweise zu analysieren und miteinander zu vergleichen. Dabei soll sowohl der Schutz der jeweiligen Informationstypen als auch die eingesetzten Mechanismen betrachtet werden. Außerdem sollen Herausforderungen dieser Ansätze, etwa hinsichtlich Performance, Skalierbarkeit oder unterstützter Werbeformen (interessenbasierte Werbung, Re-Targeting etc.), kritisch diskutiert werden. Startliteratur: Data Clean Rooms, Topics API, Unified ID 2.0, WebKit Privacy-Preserving Ad Click Attribution, Mozilla Anonym Mögliche Forschungsfragen: 1. Welche industriellen Ansätze für datenschutzfreundliches Ad Targeting existieren aktuell? 2. Welche Arten von Daten werden jeweils geschützt und welche technischen Verfahren kommen zum Einsatz? 3. Welche Herausforderungen und Einschränkungen ergeben sich bei der praktischen Umsetzung dieser Lösungen (z. B. Performance, Skalierbarkeit, unterstützte Werbeformen)?
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Karsten Evers
Von Wahrscheinlichkeitsräumen zu Sicherheitsbeweisen: Ein formales Rahmenwerk für Anonymität In der Arbeit soll untersucht werden, wie sich Anonymität und verwandte Sicherheitsziele in digitalen Kommunikationssystemen formal und präzise modellieren lassen. Während kryptographische Verfahren in der Fachliteratur meist in einem streng formalen Rahmen, bei dem Definitionen, Sätze und Beweise im Mittelpunkt stehen, entwickelt werden, erfolgt die Behandlung mehrseitiger Sicherheit und anonymer Kommunikation häufig weniger formal, insbesondere in praxisorientierter Literatur. Ziel der Arbeit ist es daher, auf Basis probabilistischer Modelle ein präzises Rahmenwerk für Anonymitätskonzepte zu entwickeln, das sich an den formalen Standards kryptographischer Sicherheitsbeweise orientiert. Dabei soll gezeigt werden, wie sich auch komplexe Konzepte aus dem Bereich der Anonymität in präzise mathematische Modelle fassen lassen, die auf klaren Definitionen und beweisbaren Eigenschaften beruhen. Besonderer Wert soll auf eine formale, aber zugleich verständliche Darstellung gelegt werden, die mit den mathematischen Grundlagen des Grundstudiums gut nachvollziehbar ist. Literatur zum Einstieg Delfs Knebl (2015) Introduction to Cryptography, Springer Peng (2014) Anonymous Communication Networks, CRC Press Pfitzmann (2012) Sicherheit in Rechnernetzen: Mehrseitige Sicherheit in verteilten und durch verteilte Systeme (Vorlesungsskript) https://dud.inf.tu-dresden.de/~sk13/TUD-Web-CMS/LV/SaC-II/Skript.pdf Wagner, Eckhoff (2018) Technical privacy metrics: a systematic survey https://arxiv.org/pdf/1512.00327
Verfügbar für:
Wirtschaftsinformatik (M) , BWL (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Maximilian Wittig
Blinde Signaturen sind ein kryptographisches Verfahren, das es ermöglicht, digitale Nachrichten von einer dritten Partei signieren zu lassen, ohne dass diese den Inhalt der Nachricht kennt. Dieses Prinzip erlaubt es, Authentizität zu gewährleisten, ohne die Privatsphäre des Nutzers zu kompromittieren. Im Web finden blinde Signaturen zunehmend Anwendung, insbesondere in datenschutzsensiblen Szenarien. Beispiele hierfür sind: - Privacy Pass: Reduziert die Anzahl von CAPTCHAs, insbesondere für Tor-Nutzer wichtig. - AdVeil: Eine datenschutzfreundliche Alternative für Online-Targeting. - Private Fraud Prevention: Erlaubt das datenschutzgerechte Loggen von Nutzerinteraktionen (Touchpoints). Die zugrundeliegenden Kryptosysteme unterscheiden sich teils erheblich in ihrer mathematischen Grundlage, ihrer Sicherheit und ihrer praktischen Umsetzbarkeit. Ziel dieses Seminars ist es, blinde Signaturen im Kontext des Webs systematisch zu identifizieren und zu vergleichen. Untersucht werden sollen die eingesetzten Kryptosysteme, die jeweiligen Anwendungsfelder und deren konkrete Einsatzzwecke. Der Recherchefokus kann sich dabei auf akademische Datenbanken wie die ACM Digital Library, Springer Link oder IEEE Xplore beschränken. Mögliche Forschungsfragen: 1. Welche Kryptosysteme werden für blinde Signaturen im Web eingesetzt? 2. Welche Eigenschaften und Besonderheiten haben diese Kryptosysteme? 3. Für welche konkreten Einsatzzwecke werden blinde Signaturen verwendet (z. B. Online-Werbung, Bot-Detection etc.)?
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Karsten Evers
In Zeiten allgegenwärtiger Datensammlung gewinnt der Schutz individueller Privatsphäre immer mehr an Bedeutung. Differential Privacy (DP) bietet einen formalisierten Rahmen, um diesen Schutz zu quantifizieren und findet bereits praktische Anwendung bei führenden Technologieunternehmen und in staatlichen Erhebungen, was die Bedeutung der theoretischen Konzepte für reale Datenschutzlösungen verdeutlicht. Ein zentrales Merkmal von DP ist, dass sie Mechanismen beschreibt, die verhindern, dass Rückschlüsse auf Einzelpersonen möglich sind, selbst dann, wenn Angreifer über umfangreiches Hintergrundwissen verfügen. In diesem Seminar sollen die mathematischen Grundlagen von DP erarbeitet werden. Dazu gehören die formale Definition, zentrale Mechanismen sowie deren mathematische Eigenschaften und Grenzen. Ziel ist es, die wichtigsten Resultate und Beweisideen verständlich aufzubereiten und einen Überblick über aktuelle Anwendungen und Herausforderungen zu geben. Literatur zum Einstieg Dwork, Roth (2014) The Algorithmic Foundations of Differential Privacy Li, Lyu, Su, Yang (2017) Differential Privacy - From Theory to Practice, Morgan & Claypool
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Karsten Evers
Mit dem Aufkommen leistungsfähiger Quantencomputer geraten klassische kryptographische Verfahren wie bspw. RSA zunehmend unter Druck, da Quantenalgorithmen wie der von Shor diese Verfahren effizient brechen könnten. Die Post-Quanten-Kryptographie beschäftigt sich daher mit der Entwicklung und Analyse von kryptographischen Algorithmen, deren Sicherheit auch im Zeitalter von Quantencomputern gewährleistet ist. In dieser Arbeit sollen zunächst die mathematischen Grundlagen der Post-Quanten-Kryptographie behandelt werden. Dazu gehören die Beschreibung der wichtigsten Problemklassen, die Funktionsweise einiger quantensicherer Algorithmen sowie die Analyse ihrer Sicherheit und die verständliche Aufarbeitung der entsprechenden Beweise. Ziel ist es außerdem, ausgewählte Aspekte des aktuellen Forschungsstands in knapper Form zusammenzufassen und die Bedeutung quantensicherer Kryptographie für die IT-Sicherheit der Zukunft in Grundzügen darzustellen. Ein Blick auf den aktuellen Standardisierungsprozess des US-amerikanischen NIST, das derzeit quantensichere Verfahren für den praktischen Einsatz auswählt, kann den Bezug zur Anwendungspraxis verdeutlichen. Literaturvorschläge: Bernstein Buchmann Dahmen (2009) Post-quantum cryptography, Springer Paar Pelzl Guneysu (2024) Understanding Cryptography, Springer Stinson Paterson (2019) Cryptography, CRC Press
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Marc Roßberger
In der heutigen digitalen Welt sind Instant-Messenger wie WhatsApp, Signal, Threema und Telegram zu einem unverzichtbaren Kommunikationsmittel geworden. Durch die untrennbare Einbindung in unseren Alltag und das Versenden von immer mehr Nachrichten mit teils sehr persönlichen Inhalten sind die Sicherheit dieser Dienste und die Privatsphäre von Nutzern ein relevantes Thema. Insbesondere für verfolgte Randgruppen, Journalisten und Whistleblower sind anonyme Messenger deshalb sehr wichtig. In diesem Seminar sollen mithilfe einer systematischen Literaturrecherche eine Übersicht über De-Anonymisierungs-Angriffe gegen Instant Messenger gegeben werden. Dabei kann eine Kategorisierung bspw. nach Angriffs-Art, Ziel, Plattform, Schutzmaßnahmen, Angreifermodell (Mächtigkeit, Position, Voraussetzungen, …), … erfolgen.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Marc Roßberger
Instant-Messenger wie WhatsApp, Telegram und Signal sind aus dem Alltag vieler Menschen nicht mehr wegzudenken. Sie haben die Art und Weise, wie wir kommunizieren, grundlegend verändert. Das Verständnis der Kommunikationsmuster in diesen Plattformen ist von großer Bedeutung, um Einblicke in das menschliche Kommunikationsverhalten zu gewinnen, weshalb sich einige Arbeiten damit beschäftigt haben, echte Kommunikationsdaten aus diesen Messengern zu sammeln. In diesem Seminar soll mithilfe einer systematischen Literaturrecherche identifiziert werden, welche Arbeiten wie Datensätze aus Messengern erhoben haben (z.B. freiwilliges Einreichen von Chat-Verläufen [1], Datensammlung in öffentlichen Gruppen [2]). Dabei kann bspw. auf betrachtete Messenger, die genutzte Methodik, als auch ob und wie diese Datensätze verwendet und veröffentlich wurden, und die Repräsentativität der Datensätze eingegangen werden. [1] https://ieeexplore.ieee.org/abstract/document/10064263 [2] https://ojs.aaai.org/index.php/ICWSM/article/view/14989
Verfügbar für:
Wirtschaftsinformatik (M) , BWL (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Maximilian Wittig
Online-Werbung ist ein zentraler Finanzierungsmechanismus im Web. Dabei dominieren zwei unterschiedliche Ansätze zur Platzierung von Werbung: verhaltensbasierte Werbung und kontextbasierte Werbung. Verhaltensbasierte Werbung (Behavioral Targeting) nutzt detaillierte Informationen über das vergangene Surfverhalten und das Nutzerprofil, um personalisierte Werbung anzuzeigen. Hierbei werden über mehrere Webseiten hinweg Daten gesammelt, um Interessen, demografische Merkmale und Vorlieben des Nutzers möglichst genau zu bestimmen. Typische Techniken beinhalten Third-Party-Tracking, Cross-Site-Cookies und Profilbildung über längere Zeiträume. Kontextbasierte Werbung (Contextual Targeting) hingegen analysiert den unmittelbaren Kontext, in dem die Werbung angezeigt wird – etwa den Inhalt einer Webseite, das Thema eines Artikels oder aktuelle Suchbegriffe. Zusätzlich können situative Informationen wie aktuelle Session-Daten oder First-Party-Daten verwendet werden. Der Fokus liegt hier nicht auf dem Nutzer, sondern auf der Relevanz der Werbung zur aktuellen Umgebung. Mit der zunehmenden Regulierung von Tracking-Technologien (z. B. durch die Datenschutz-Grundverordnung, Browser-Schutzmaßnahmen oder den Rückgang von Third-Party-Cookies) gewinnt kontextbasierte Werbung als datensparsame Alternative zunehmend an Bedeutung. In diesem Seminar sollen beide Werbeformen systematisch verglichen werden: Welche Daten werden jeweils benötigt? Wie tiefgreifend müssen Nutzerprofile sein? Welche technischen und ökonomischen Unterschiede bestehen? Ziel ist es, den Wandel im Online-Werbemarkt zu verstehen und zu analysieren, welche Rolle datensparsame Verfahren künftig spielen können. Mögliche Forschungsfragen: 1. Was unterscheidet verhaltensbasierte von kontextbasierter Werbung technisch und organisatorisch? Welche Informationen werden jeweils verarbeitet? 2. Wie profitabel sind verhaltensbasierte und kontextbasierte Werbung im Vergleich? Welche Faktoren beeinflussen den wirtschaftlichen Erfolg? 3. Wie umfangreich und langfristig müssen Nutzerprofile sein, um verhaltensbasierte Werbung effektiv zu betreiben? Welche Rolle spielen First-Party-Daten bei kontextbasierter Werbung? Startliteratur: - Bleier, A. (2021). On the Viability of Contextual Advertising as a Privacy-Preserving Alternative to Behavioral Advertising on the Web. - IAB Europe (2021): Guide to Contextual Advertising.
Verfügbar für:
Wirtschaftsinformatik (B) , Digital Business (B)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Iuliia Grebeshok
MAIN IDEA & RESEARCH QUESTIONS Robo-advisors have democratized investment management by using algorithms to provide automated portfolio advice, but they traditionally operate within predefined strategies. With advances in AI, next-generation advisors could evolve into autonomous agents capable of learning and adapting their strategies in real-time. This topic explores the transition from rule-based robo-advisors to self-learning investment agents, examining how greater autonomy might improve personalization and decision-making. The thesis aims to analyze the benefits and challenges of fully AI-driven investment advisory services. Key focuses include how autonomous AI advisors handle market dynamics, maintain client trust, and comply with financial regulations. It will also consider the necessary safeguards to ensure these agents act in investors’ best interests (e.g. risk management and oversight mechanisms). Possible research questions include, but are not limited to: How do AI-driven investment advisors differ from traditional robo-advisors in terms of decision-making and adaptability? What improvements in portfolio performance or efficiency might autonomous agents achieve, and what new risks (e.g., model errors or lack of transparency) do they introduce? How can user-specific factors (like risk tolerance and investment goals) be dynamically incorporated into an autonomous agent’s strategy? What regulatory and ethical considerations arise when human financial advisors are augmented or replaced by AI? How can trust in fully autonomous investment advisors be established and maintained among consumers? LITERATURE Ge, R., Zheng, Z. (Eric), Tian, X., & Liao, L. (2021). Human–Robot Interaction: When Investors Adjust the Usage of Robo-Advisors in Peer-to-Peer Lending. Information Systems Research. https://doi.org/10.1287/isre.2021.1009Capponi, A., Ólafsson, S., & Zariphopoulou, T. (2021). Kinniry, F., Jaconetti, C., Dijoseph, M., Walker, D., & Quinn, M. (2022). Putting a value on your value: Quantifying Vanguard Advisor’s Alpha®. https://corporate.vanguard.com/content/dam/corp/articles/pdf/putting_value_on_your_value_quantifying_vanguard_advisors_alpha.pdf Personalized Robo-Advising: Enhancing Investment Through Client Interaction. Management Science. https://doi.org/10.1287/mnsc.2021.4014
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Iuliia Grebeshok
MAIN IDEA & RESEARCH QUESTIONS Methods for interpreting outputs for Machine Learning Models aim to achieve greater transparency, reliability, trustworthiness, and fairness. One problem is that the interpretation methods themselves are often subject to uncertainties and only work well under certain conditions, which calls into question the actual objective of these methods. Two of the best known and most widely used methods for interpreting black-box ML algorithms are Local Interpretable Model-Agnostic Explanations (LIME) and Shapley Additive Explanations (SHAP) The goal of this topic is to critically scrutinize interpretable explainable AI methods based on the examples of LIME and SHAP. The theory and intuition of LIME should be introduced and critically examined. In addition, general pitfalls of using these methods should be analyzed and compared to other methods for interpretable machine learning. Examples of LIME and SHAP explanations may be demonstrated practically based on prototype implementations. Possible research questions include, but are not limited to: What are LIME and SHAP and what are are their theoretical foundations? What are general and specific pitfalls of using explainable AI methods? What are potential remedies or alternatives? What practical value doe explainability methods provide for actual use cases? How can these methods promote the human oversight of machine learning models? LITERATURE Ribeiro, M. T., Singh, S., & Guestrin, C. (2016, August). “Why should i trust you?” Explaining the predictions of any classifier. In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (pp. 1135-1144). Lundberg, S. M., & Lee, S. I. (2017). A Unified Approach to Interpreting Model Predictions. In Proceedings of the 31st Conference on Neural Information Processing Systems (pp. 4765-4774). Lipton, Z. C. (2018). The mythos of model interpretability: In machine learning, the concept of interpretability is both important and slippery. Queue, 16(3), 31-57.
Verfügbar für:
Wirtschaftsinformatik (B) , Digital Business (B)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Iuliia Grebeshok
MAIN IDEA & RESEARCH QUESTIONS Advances in AI and automation are reshaping the labor market, raising concerns about so-called “AI layoffs” – the displacement of workers driven by the adoption of AI technologies. While much of this adoption has been concentrated in digital and tech-intensive sectors, its ripple effects are becoming visible across the broader economy. This thesis explores how AI is affecting employment patterns, job quality, and skill demands. Rather than focusing solely on job losses, it examines both the direct effects (e.g., workforce reductions, task substitution) and indirect effects (e.g., task redesign, evolving skill requirements) of AI adoption. The aim is to understand the scope and nature of AI-induced labor market changes, drawing on empirical analysis of datasets such as those from the U.S. Bureau of Labor Statistics (BLS). Through this analysis, the thesis will assess to what extent recent advances – particularly in generative AI – are leading to task automation, job displacement, or job transformation. Findings will further inform debates on whether AI is broadly augmenting human work or predominantly automating it. Possible research questions include, but are not limited to: What evidence links recent AI adoption to workforce reductions, and which occupations are most affected? What is the extent to which AI substitutes for versus augments human labor? What are the short-term and long-term impacts of AI on employment levels and wage growth? How do “AI layoffs” compare to past automation waves in scope and speed? What policies can mitigate negative effects on workers and help distribute AI-driven productivity gains more equitably? LITERATURE Acemoglu, D., Autor, D. H., Hazell, J., & Restrepo, P. (2020). Ai and Jobs: Evidence from Online Vacancies. NBER Working Paper. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.3765910 Eloundou, T., Manning, S., Mishkin, P., & Rock, D. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models. ArXiv:2303.10130 [Cs, Econ, Q-Fin], 5(5). https://arxiv.org/abs/2303.10130 Frey, C. B., & Osborne, M. A. (2016). The future of employment: How susceptible are jobs to computerisation? Technological Forecasting and Social Change, 114, 254–280. https://doi.org/10.1016/j.techfore.2016.08.019
Verfügbar für:
Wirtschaftsinformatik (B) , BWL (B) , Digital Business (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Philipp Hartl
MAIN IDEA & RESEARCH QUESTIONS Data sharing for public good is a powerful tool to address societal challenges, especially in health, education, and social equity. However, concerns about privacy, regulatory requirements (e.g., GDPR, Digital Services Act), and perceived risks often deter participation in data-sharing initiatives. By combining behavioral nudges, regulatory alignment, and economic incentives, it is possible to promote data sharing while safeguarding privacy and fostering public trust. This bachelor thesis aims to provide a comprehensive understanding of the interplay between data sharing, privacy, regulation, and behavioral interventions. It focuses on identifying best practices for overcoming barriers and implementing effective strategies for fostering a culture of data sharing for societal benefit. Possible research questions include, but are not limited to: What are the main barriers to data sharing, and how can they be mitigated? How do privacy concerns and regulatory frameworks influence data-sharing practices? What role do behavioral nudges play in encouraging data sharing? How can economic incentives and regulations be aligned to promote socially beneficial data-sharing practices? LITERATURE Acquisti, A., Adjerid, I., Balebako, R., Brandimarte, L., Cranor, L. F., Komanduri, S., Leon, P. G., Sadeh, N., Schaub, F., Sleeper, M., Wang, Y., & Wilson, S. (2018). Nudges for privacy and security: Understanding and assisting users’ choices online. ACM Computing Surveys, 50(3), 1–41. https://doi.org/10.1145/3054926 Council of European Union & European Parliament. (2022). Regulation (EU) 2022/868 of the European Parliament and of the Council of 30 May 2022 on European data governance and amending Regulation (EU) 2018/1724 (Data Governance Act). Official Journal of the European Union, L 152, 1–44. Ioannou, A., Tussyadiah, I., Miller, G., Li, S., & Weick, M. (2021). Privacy nudges for disclosure of personal information: A systematic literature review and meta-analysis. PloS one, 16(8), e0256822. https://doi.org/10.1371/journal.pone.0256822
Verfügbar für:
Wirtschaftsinformatik (B) , Digital Business (B)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Andreas Schauer
MAIN IDEA & RESEARCH QUESTIONS Uncertainty Quantification (UQ) is a critical research area in ML aimed at assessing and communicating the uncertainty of model predictions. In credit scoring, where ML models are increasingly employed to evaluate the creditworthiness of individuals, understanding and visualizing uncertainty is essential for ensuring robust, fair, and transparent decision-making. Credit scoring tasks often involve high-stakes decisions, where errors can lead to significant financial or social consequences. By incorporating UQ with visualization techniques, practitioners can better understand model predictions, mitigate risks, and enhance trust. The goal of this practical seminar is to investigate and develop advanced visualization methods for representing uncertainty in credit scoring tasks. Participants will explore state-of-the-art uncertainty quantification techniques such as Bayesian neural networks, ensemble methods, or Monte Carlo dropout, and focus on creating innovative visualizations to communicate uncertainty to diverse audiences. These visualizations might include confidence intervals, probabilistic heatmaps, or interactive dashboards tailored to credit scoring datasets. Based on practical implementation, the seminar thesis should assess how visualization techniques can enhance interpretability, improve stakeholder understanding, and support better decision-making. Possible research questions include but are not limited to: What are the most effective methods for quantifying uncertainty in credit scoring models? What are the most effective visualization techniques for representing uncertainty in credit scoring tasks? How can uncertainty visualization be designed to communicate effectively with both technical and non-technical stakeholders? LITERATURE Hüllermeier, E., & Waegeman, W. (2021). Aleatoric and epistemic uncertainty in machine learning: An introduction to concepts and methods. Machine learning, 110(3), 457-506. Kamal, A., Dhakal, P., Javaid, A. Y., Devabhaktuni, V. K., Kaur, D., Zaientz, J., & Marinier, R. (2021). Recent advances and challenges in uncertainty visualization: a survey. Journal of Visualization, 24(5), 861-890.
Verfügbar für:
Wirtschaftsinformatik (B)
für 4 Teilnehmer (4 vergeben)
Betreuer:
Andreas Schauer
MAIN IDEA & RESEARCH QUESTIONS The use of AI-based chatbots has rapidly evolved from simple rule-based systems to sophisticated natural language interfaces powered by large language models (LLMs). These systems enable scalable, automated communication and are increasingly being integrated into service-oriented environments such as customer support, healthcare, and public administration. In many of these areas, the Retrieval-Augmented Generation (RAG) approach is emerging—an architecture that combines the strengths of large language models (LLMs) like ChatGPT with the accuracy of domain-specific information retrieval. The goal of this real-world IT project is to develop and optimize a functional AI chatbot that supports the advisory services of the non profit organisation KJF (Katholische Jugendfürsorge Regensburg). KJF advises young migrants on a range of topics, like support with job applications or finding and completing suitable forms. The chatbot should assist the advisors and provide fast support for typical requests, based on a curated knowledge base (RAG). The project is part of a social impact initiative launched by the Start-Up VoluLink and includes collaboration with the KJF as well as support by a mentor from a local IT company. Possible research questions include, but are not limited to: Can the development of a RAG model for a domain-specific use case, like youth migration advisory, lead to better results than unmodified LLMs, like ChatGPT? LITERATURE Youngsu, Y., Sihyun, K., Wonbok L., Bonsang, K. (2025). Evaluating ChatGPT on Korea's BIM Expertise Exam and improving its performance through RAG. Journal of Computational Design and Engineering, 12(4), 94-120. Aslan N., Altynbek S. (2025). Modern AI Models for Text Analysis: A Comparison of Chatgpt and Rag. Journal of Data Analytics and Artificial Intelligence Applications, 1(1), 1-13.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Iuliia Grebeshok
MAIN IDEA & RESEARCH QUESTIONS Recent advances in Large Language Models (LLMs) open the door to autonomous agents capable of interpreting human investment goals expressed in natural language and converting them into executable trading strategies. This thesis focuses on designing and evaluating an LLM-powered investment agent that operates within a market simulation environment (e.g., pymarketsim). The agent should be capable of translating qualitative user input into quantitative strategy configurations aligned with user-defined risk profiles. The core objective is to build an intelligent decision layer using an LLM (e.g., GPT, Claude, etc.) that parses user instructions and maps them to simulation parameters such as portfolio composition, risk constraints, trading frequency, or agent behavior. These configurations are then passed to a trading agent that operates autonomously within the simulated environment. The thesis will explore how well LLMs can bridge the gap between human intention and algorithmic strategy design and address challenges of alignment, explainability, and robustness in AI-guided investment decisions. Possible research questions include, but are not limited to: How effectively can an LLM translate qualitative investor goals into concrete, parameterized trading strategies? What kinds of prompting, fine-tuning, or embedding techniques are most effective for aligning LLM output with financial decision logic? How do LLM-guided agents perform relative to rule-based or manually tuned agents in terms of return, risk, and responsiveness? Can LLMs adapt to user feedback or evolving preferences over time in a closed simulation loop? LITERATURE Mascioli, C., Gu, A., Wang, Y., Chakraborty, M., & Wellman, M. (2024). A Financial Market Simulation Environment for Trading Agents Using Deep Reinforcement Learning. 117–125. https://doi.org/10.1145/3677052.3698639 Liu, P., Dwarakanath, K., Vyetrenko, Svitlana S, & Balch, T. (2022). Limited or Biased: Modeling Sub-Rational Human Investors in Financial Markets. ArXiv.org. https://arxiv.org/abs/2210.08569 Byrd, D. (2025). Exploring Sentiment Manipulation by LLM-Enabled Intelligent Trading Agents. ArXiv.org. https://www.arxiv.org/abs/2502.16343
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Philipp Hartl
MAIN IDEA & RESEARCH QUESTIONS Large Language Models (LLMs), such as OpenAI's GPT or Meta's LLaMA, are increasingly being deployed in high-stakes applications, from legal document summarization to decision support in healthcare and security. However, LLMs are prone to generating "hallucinations”, outputs that are fluent but factually incorrect, raising concerns about reliability, transparency, and accountability. This thesis aims to investigate methods for uncertainty quantification in LLM outputs, particularly in the context of hallucination detection. The core objective is to evaluate the effectiveness of current approaches to detect, measure, and potentially mitigate hallucinations, and to explore how uncertainty metrics can be communicated to end users for more informed decision-making. The thesis will include both a theoretical review and a practical implementation using LLM APIs and open-source models (e.g., LLaMA, Mistral, GPT, etc.), with experiments on benchmark datasets and/or domain-specific texts (e.g., legal or medical corpora). Possible research questions include, but are not limited to: What are the current state-of-the-art techniques for uncertainty quantification in LLMs (e.g., entropy, ensemble models)? How does uncertainty estimation differ across types of LLM architectures (e.g., decoder-only vs. encoder-decoder) and model sizes? How does fine-tuning or instruction-tuning affect a model’s uncertainty calibration? How effective are these techniques in detecting hallucinations across different types of tasks (e.g., summarization, question answering, risk assessment)? What types of hallucinations can be detected using uncertainty estimates in LLMs, and what limitations persist? To what extent is uncertainty a reliable proxy for hallucination in factual generation tasks? LITERATURE Manakul, P., Liusie, A., & Gales, M. SelfCheckGPT: Zero-Resource Black-Box Hallucination Detection for Generative Large Language Models. In The 2023 Conference on Empirical Methods in Natural Language Processing. Shorinwa, O., Mei, Z., Lidard, J., Ren, A. Z., & Majumdar, A. (2024). A survey on uncertainty quantification of large language models: Taxonomy, open research challenges, and future directions. ACM Computing Surveys. Bouchard, D., & Chauhan, M. S. (2025). Uncertainty Quantification for Language Models: A Suite of Black-Box, White-Box, LLM Judge, and Ensemble Scorers. arXiv preprint arXiv:2504.19254.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Philipp Hartl
MAIN IDEA & RESEARCH QUESTIONS Economic games like the Ultimatum Game, Public Goods Game, and Dictator Game are vital tools in behavioral and experimental economics. This project seminar focuses on developing a platform for running these standard economic games, utilizing oTree, a Python-based framework for online experiments. The goal is to create flexible, user-friendly interfaces for both participants and researchers, allowing seamless game execution, real-time data collection, and integration of advanced features like dynamic feedback, surveys or interactive nudging elements. Possible research questions may include but are not limited to: How can we design user-friendly interfaces for economic games that ensure ease of use for participants across diverse demographics? What are the best practices for implementing real-time feedback and data visualization within economic game platforms? What are the technical challenges of implementing dynamic, multi-player economic games in real-time using oTree? Prerequisites for the project seminar include knowledge of oTree development and necessary familiarity with Python programming languages, as well as a basic understanding of behavioral or experimental economics. LITERATURE Thielmann, I., Böhm, R., Ott, M., & Hilbig, B. E. (2021). Economic games: An introduction and guide for research. Collabra: Psychology, 7(1), 19004. Chen, D. L., Schonger, M., & Wickens, C. (2016). oTree—An Open-Source Platform for Laboratory, Online, and Field Experiments. Journal of Behavioral and Experimental Finance, 9, 88-97. https://doi.org/10.1016/j.jbef.2015.12.001 Thaler, R. H., & Sunstein, C. R. (2009). Nudge: Improving decisions about health, wealth, and happiness. Penguin.
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Andreas Schauer
MAIN IDEA & RESEARCH QUESTIONS As machine learning (ML) models become central in high-stakes decision-making, the need for interpretable and trustworthy systems grows. Explainable AI (XAI) methods aim to make ML model behavior transparent by providing human-understandable explanations. However, these explanations are not without their own uncertainty. Even when applied to the same ML model, different runs of an XAI method may yield inconsistent or even contradictory explanations. This raises a critical and often overlooked issue: the uncertainty introduced by the XAI method itself. The theoretical seminar thesis aims to explore this form of uncertainty. It aims to investigate how and why explanation outputs can vary, and what this means for the trustworthiness and reliability of AI systems. The goal is to identify, compare, and evaluate existing approaches to quantifying uncertainty in XAI methods and to reflect on their implications for the interpretation and communication of explanations in practice. Possible research questions include but are not limited to: How can the uncertainty introduced by an XAI method be defined and understood conceptually? What causes uncertainty in the outputs of XAI methods? What methods exist (or could be developed) to quantify such uncertainty? LITERATURE Bobek, S., & Nalepa, G. J. (2021, June). Introducing uncertainty into explainable ai methods. In International Conference on Computational Science (pp. 444-457). Cham: Springer International Publishing. Marx, C., Park, Y., Hasson, H., Wang, Y., Ermon, S., & Huan, L. (2023, April). But are you sure? an uncertainty-aware perspective on explainable ai. In International conference on artificial intelligence and statistics (pp. 7375-7391). PMLR. Slack, D., Hilgard, A., Singh, S., & Lakkaraju, H. (2021). Reliable post hoc explanations: Modeling uncertainty in explainability. Advances in neural information processing systems, 34, 9391-9404.
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Leo Poss
Die fortschreitende Integration von Künstlicher Intelligenz in wissenschaftliche Arbeiten macht ihre Nutzung zwar nahezu unumgänglich, gleichzeitig erfordert dies jedoch eine sorgfältige und transparente Dokumentation. Im Zuge der Bachelorarbeit soll ein grober Überblick über aktuell verwendete Richtlinien und Informationen zur Verwendung von KI in schriftlichen Arbeiten an unterschiedlichen Universitäten (im deutschsprachigen Raum) erarbeitet werden. Im Anschluss soll ein Tool entwickelt werden, das eine einfache Einbindung der Dokumentation in eine Abschlussarbeit ermöglicht (Formular mit Umwandlung z.B. in Latex Tabelle): ähnlich zu https://web.psi.uni-bamberg.de/ki-policy-generator/v2.html oder https://ai-cards.org/.
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Daniel Oberhofer
Analysis of defensive cyber security playbooks and identification of so-called use cases. Playbooks are processes in the context of cyber security that are used, among other things, for the automated response to security incidents. Centralized security organizations publish these playbooks in the CACAO format. Since their content often overlaps significantly, it makes sense to identify categories of playbooks and model them as exemplary visualizations using BPMN. This Thesis does not require previous knowledge. Basics in cyber security might be beneficial.
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Daniel Oberhofer
Security Playbooks are structured processes in the context of cyber security, that are used to prepare against cyber attacks by providing an automatic response in case of emergency, but also define processes to strngthen the security of systems in advance. Such playbooks are delivered by organizations in the format of CACAO, which is a structure defintion especially in the context of playbooks. It involves, among others, descriptions of process steps and affected devices. This thesis requires collecting information about playbooks and the CACAO language, by analyzing a set of CACAO playbooks, identify a common structure and then developing a Parser, that visualizes Playbooks as a Petri-Net or BPMN. This thesis requires interest in software development in the context of cyber security. Programming is a central component, but basics in object-oriented programming are enough.
Verfügbar für:
Wirtschaftsinformatik (B)
für 3 Teilnehmer (2 vergeben)
Betreuer:
Leo Poss
Basierend auf dem im Rahmen vorheriger Seminare entwickelten Prototyp eines automatischen Bewässerungssystems für Topfpflanzen, der auf einem Raspberry Pi also zentraler Steuerungseinheit und ESP32-basierten Sensorknoten mit ESPNow-Kommunikation basiert, liegt der Fokus dieses Seminars auf der Weiterentwicklung und Optimierung des bestehenden Systems. Im Seminar sollen basierend auf dem aktuellen Stand verschiedene Aspekte wie die Integration zusätzlicher Sensorik zur genaueren Erfassung von Umgebungsparametern, die Implementierung von Complex Event Processing (CEP) zur intelligenten Auswertung der Sensordaten und die Miniaturisierung der Hardwarekomponenten zur Realisierung eines kompakteren und unauffälligeren Designs untersucht und prototypisch umgesetzt werden. (Interesse oder erste Kenntnisse in der Programmierung von Mikrocontrollern (ESP32, Raspberry Pi) und IoT-Technologien erforderlich. Erfahrungen im Bereich Embedded Systems sind von Vorteil.)
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Leo Poss
Workflow patterns define typical workflows in business processes and use pre- and postconditions to ensure the correct execution of activities. The modeling language BPMN offers various ways of expressing conditions, but no direct equivalent for preconditions and postconditions from workflow patterns. The master's thesis aims to develop a systematic method for transferring the pre- and postconditions described in workflow patterns into BPMN models. Various BPMN elements such as gateways, data objects, and rules are to be evaluated and used in a prototype implementation. The aim is to create a guideline for the correct and complete implementation of workflow pattern prerequisites in BPMN.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Linda Kölbel
This master's thesis aims to expand and formalize an existing BPMN-based notation for modeling safety-critical processes in industrial IoT systems. Building on the SIREN approach, the focus is on the integration and technical implementation of safety requirements from the IEC 62443 standard into standardized BPMN models. The thesis examines how security standards can be systematically embedded in model-based process representations to ensure and validate compliance. In addition, it analyzes the extent to which the extended notation can be adapted for other standards and supported by the use of LLMs for automated compliance testing.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Daniel Oberhofer
A security playbook is a predefined, structured set of actions and procedures designed to guide automated or manual responses to cyber incidents, but also to prepare by strenghening defensive efforts of an organization. As playbooks provide a mixture of actions, that are automated, and manual steps, that require human input, visualizing them within a modelling langage like BPMN might be beneficial. This thesis requires on one hand conducting a literature review about playbooks, in order to identify uniques characteristics, but also requires research on BPMN in the context of cybersecurity in order to develop a working set of modelling rules.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Leo Poss
The integration of Large Language Models (LLMs) into business process analysis enables the automated extraction of implicit ethical values and other relevant KPIs from process-related documentation. This is crucial for the development of ethically reflected business processes and for ensuring normative compliance. This master's thesis builds on the results of a previous practical seminar in which a systematic approach to extracting ethical values using LLMs, including suitable prompt engineering strategies, was designed and demonstrated. The aim of the master's thesis is to extend and generalize the work done in a previous seminar to map additional contextual factors and to be able to use the extracted information at runtime in the process. This includes a structured literature review as well as the prototypical implementation that takes into account current developments in transformer-based systems (new/larger models, prompting strategies, best practices). Prerequisites: Programming skills - N. Frick, F. Marx, “Ethics by Design: An automated approach to incorporating ethics into artificial intelligence systems,” Business & Information Systems Engineering, vol. 63, no. 5, 2021. - T. Miller, “Explanation in artificial intelligence: Insights from the social sciences,” Artificial
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Leo Poss
The integration of location information into declarative process models represents an innovative approach to improving spatio-temporal process coordination. While established imperative process models often specify static process structures, declarative modeling with MP-Declare enables a flexible definition of process constraints. The addition of location patterns promises an improved mapping of spatial dependencies in distributed business processes. The practical implementability of location patterns in declarative process management systems is to be investigated as part of the work. The focus is on developing an executable implementation of location patterns in Declare or comparable declarative frameworks. Central aspects include the formal specification of location patterns, their integration into existing Declare constructs, and the development of an execution environment to demonstrate the practical applicability of these patterns. The project aims to validate the technical feasibility using concrete process scenarios. - M. Pesic, H. Schonenberg, and W.M.P. van der Aalst, “DECLARE: Full Support for Loosely-Structured Processes,” in EDOC, 2007. - C. Cabanillas, C. Di Ciccio, J. Mendling, and A. Baumgrass, “Predictive Task Monitoring for Business Processes,” in BPM, 2014.
Verfügbar für:
Wirtschaftsinformatik (M)
für 3 Teilnehmer (0 vergeben)
Betreuer:
Daniel Oberhofer
A security playbook is a predefined, structured set of actions designed to guide automated or manual preparation on cyber incidents. This includes reacting to cyberattack in order of pre-defined steps, or hardening the system proactvely with structure security processes. This seminar requires students to design a plattform, that uses multiple existing tools and combines them into a playbook visualization platform. For this purpose the Camunda platform can be used, as it combines visualizing playbooks in BPMN, and executing scripts via API calls.
Verfügbar für:
Wirtschaftsinformatik (M)
für 3 Teilnehmer (0 vergeben)
Betreuer:
Linda Kölbel
The aim of this seminar paper is to examine and compare various monitoring tools in terms of their suitability for monitoring processes in the IIoT. On the one hand, an analysis of the available tools and their functionalities is required. On the other hand, suitable extensions of the BPMN notation for IIoT applications are to be identified, selected, and used as examples in the context of the work. Selected IIoT process models will be used to check which monitoring options the respective tools offer. In addition, potential gaps or potential extensions are to be identified and implemented or proposed in practice.
Verfügbar für:
Wirtschaftsinformatik (M)
für 3 Teilnehmer (0 vergeben)
Betreuer:
Leo Poss , Michael Reinstein
In addition to classic active entities in the process model (human actors, machines, ...), passive resources (tools, materials) are also available to a limited extent in reality and must therefore be planned and used sensibly. The specific needs of locally distributed processes (e.g., construction and craft businesses) should be mentioned here in particular. To this end, developments and advances such as the Internet of Things can be used to collect data and coordinate, document, and improve its use. The aim of the seminar is to develop a prototypical approach for the collection, local tracking, and management of passive resources in the form of materials and tools based on an existing concept (and technology stack). Prerequisite: Programming skills (!) Technologies: Backend (SpringBoot, Quarkus, ktor), Frontend (Next.js or similar), Mobile application (Compose Multiplatform), IoT devices (ESP32 → probably only small things to implement effectively).
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Linda Kölbel
As part of this seminar paper, a comprehensive literature review will be conducted to investigate which established methods currently exist for identifying potential security vulnerabilities by analyzing network data. The aim is to analyze and evaluate the respective methods with regard to their suitability for different application scenarios in IIoT processes. In addition, the selected approaches are to be transferred and adapted to specific IIoT contexts. Based on the knowledge gained, concrete improvement measures and practical recommendations for securing IIoT systems will be derived.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Daniel Oberhofer
Cyber security information sources are diverse, but provide valuable information, that can be used to make a system more secure, or asses potential threats to an organization. There are offensive databases, that describe potential attack Tactics, Techniques and Procedures (TTPs) and in contrary there are databases, that describe defensive Tactics and Techniques, that can be used to strenghen defensive efforts. Combining these data sources , by defining novel ways of relationships in between them can be achieved by Cyber Security Knowledge graphs. This seminar includes a structured literature review, that identifies potential and use cases of this upcoming technology in research.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Leo Poss
Complex event processing (CEP) enables the recognition of patterns and correlations in real-time data streams. While practical implementations of CEP exist in various forms, the concrete implementation details, their theoretical background, and formal description often remain unclear. A systematic investigation of the underlying algorithms, data structures, and mathematical formalization is required to use CEP efficiently and scalably. Within the scope of the seminar, detailed literature research on the formalization and formal representations of Complex Event Processing will be carried out. The focus is on the analysis of existing CEP approaches, their mathematical foundations, and algorithmic implementation. - D. Gyllstrom, E. Wu, H.-J. Chae, Y. Diao, P. Stahlberg, and G. Anderson, “SASE: Complex Event Processing over Streams,” in CIDR, 2007. - G. Cugola and A. Margara, “TESLA: a formally defined event specification language,” in DEBS, 2010.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Linda Kölbel
As part of this seminar paper, a literature review will be conducted to analyze the already established, existing concepts and methods in the field of Business Process Improvement (BPI). The focus is on investigating the implementation possibilities of these methods in various application scenarios of IIoT processes. The aim of the work is to evaluate the suitability and effectiveness of selected BPI approaches for the analysis, monitoring, and optimization of IIoT processes. In addition, existing challenges as well as possible adaptations and prerequisites that are necessary to successfully use BPI technologies in IIoT contexts will be identified.
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Maria Leitner , Jayesh-Santosh Tawade
As collaborative robots (cobots) are increasingly integrated into industries such as manufacturing, logistics and research, the tools used to program and operate these robots are important for their efficiency, safety and flexibility. Universal Robots (UR) provides dedicated frameworks, namely, Polyscope 5 and Polyscope X, that serve as the underlying software for primarily controlling the cobots. These softwares, using a graphical user interface and scripting, can create and test programs that can run on the cobots directly. While both Polyscope 5 and Polyscope X aim to simplify robot programming and control, they differ in terms of functionalities, user experience, and technical capabilities. This thesis focuses on exploring and comparing the two software frameworks by investigating their different features. The key focus is on aspects such as ease of operation, task creation, flexibility, etc. for different use cases. This thesis is ideal for students interested in robotics and automation by offering hands-on experience in simulating real-world tasks. Learning Objectives: • Understand the concept and role of robot programming frameworks for collaborative robots • Gain practical experience with Polyscope 5 and Polyscope X (Robot programming) • Compare the features, usability and functionalities of both the frameworks • Learn how different frameworks support task development for industrial use cases • Provide a structured overview to guide future users in selecting the right programming environment
Verfügbar für:
Wirtschaftsinformatik (B) , Digital Business (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Maria Leitner
Background and Goals ==================== Cyber security exercises are events that enable participants to learn about cyber security attacks and incident response. The goal of this work is to systematically review current state of the art on diversity management in cyber security exercises or competitions and to identify potential strategies that can enable diversity in such competitions. Assignment of Tasks ==================== • Systematic literature review of diversity management • Development of a concept for diversity management in cyber security exercises • Identification of new or common strategies or success stories for diversity management • Preparation of main results
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Maria Leitner
Goal of the thesis is to implement at least 5 different visualizations that display the progress of cyber exercises. Motivation and Outline ================================ Cyber Exercises are still lacking visualizations for observers or participants. Often they are represented as scoreboards. However, cyber exercises would require better visualizations for showcasing the current progress. In the work, at least five visualizations are developed leveraging a modern programming language (e.g., JavaScript). At least two fictive data samples are generated that allow the testing of the visualizations.
Verfügbar für:
Wirtschaftsinformatik (B)
für 2 Teilnehmer (2 vergeben)
Betreuer:
Maria Leitner
Ziel des Praktikums ist die Analyse und Untersuchung des OWASP Juice Shops, dass einige Hackingchallenges umfasst. Aufgaben: * Analyse und Installation des Shops * Entwicklung von 2-3 eigenen Challenges im Shop (pro Person) * Mögliche Einbindungen in z.B. Lehre oder Capture The Flag Wettbewerbe * Durchführung und Evaluation der Resultate Das Projekt kann als Team- oder Einzelarbeit durchgeführt werden.
Verfügbar für:
Wirtschaftsinformatik (B)
für 2 Teilnehmer (2 vergeben)
Betreuer:
Maria Leitner
Ziel des Praktikums ist die Analyse und Untersuchung des neuen KI-Frameworks CAI (Cybersecurity AI), dass zur Erforschung von Sicherheitslücken genutzt werden kann. Aufgaben: * Analyse und Installation des Frameworks * Entwicklung von 2-3 Anwendungsfällen im IoT Bereich (z.B. ROS) (pro Person) * Mögliche Einbindungen in z.B. Lehre oder Capture The Flag Wettbewerbe * Durchführung und Evaluation der Resultate Das Projekt kann als Team- oder Einzelarbeit durchgeführt werden.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Maria Leitner
Background: Collaboration generally describes the cooperative work of different actors to achieve a common goal. In modern manufacturing environments, one of the most prominent forms of collaboration involves Human-Robot-Collaboration (HRC). Goal: The goal of the Master thesis is to develop a conceptual and technical framework to design and execute human-robot-collaboration (HRC) processes. Approach: * Review current state of the art * Design an architecture to design and execute collaboration processes (e.g., coexistence, synchronized, cooperation, collaboration) leveraging an open source workflow engine (e.g., CPEE, Bonita, etc.) * Develop a proof of concept implementation leveraging either offline simulators (e.g., UR Studio) or the Chairs' research lab * Demonstrate and evaluate the approach for all four collaboration types (coexistence, synchronized, cooperation, collaboration) with at least a use case References: Samhaber, S., Leitner, M. (2022). Collaborative Patterns for Workflows with Collaborative Robots. In: Sellami, M., Ceravolo, P., Reijers, H.A., Gaaloul, W., Panetto, H. (eds) Cooperative Information Systems. CoopIS 2022. Lecture Notes in Computer Science, vol 13591. Springer, Cham. https://doi.org/10.1007/978-3-031-17834-4_8
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Maria Leitner
Ziel der Arbeit ist es ein Security Testing Framework für Kollaborative Roboter zu entwickeln und eigene Tests durchzuführen. Aktueller Stand der Forschung ist eher übersichtlich und zeigt erste Möglichkeiten auf. Es gibt jedoch bereits eine Fülle von Werkzeugen, die z.B. Penetration Testing unterstützen. Jedoch gibt es in dem Bereich wenig Erfahrung im Bereich der Kollaborativen Roboter. Im Rahmen der Arbeit soll der aktuelle Stand der Technik evaluiert, ein Rahmenwerk für Security Testing von Kollaborativen Robotern erarbeitet (Welche Angriffsvektoren gibt es? Welche Technologien? Etc.) Mindestens zwei Anwendungsfälle mit offline Simulatoren werden erarbeitet und durchgeführt. Diese sollen die Herausforderungen des aktuellen Stands hervorheben und mögliche Lösungsansätze beschreiben. Referenz: Hollerer, S., Fischer, C., Brenner, B., Papa, M., Schlund, S., Kastner, W., ... & Zseby, T. (2021). Cobot attack: a security assessment exemplified by a specific collaborative robot. Procedia Manufacturing, 54, 191-196.
Verfügbar für:
Wirtschaftsinformatik (M)
für 4 Teilnehmer (3 vergeben)
Betreuer:
Maria Leitner
Goal of this seminar is to develop and implement a scenario generator for computer-based gaming simulations. Outline The goal of this seminar work is to create a web-based, computer-based gaming simulation environment for cyber security exercises. The prototype should provide an interface for (1) designing and modeling injects (as organizer), for (2) (re-)playing injects (as organizer) and (3) for receiving injects (as participant). Injects should facilitate text, visual or file extensions. At least 2 students should participate in this topic.
Verfügbar für:
Wirtschaftsinformatik (M)
für 3 Teilnehmer (0 vergeben)
Betreuer:
Maria Leitner
Ziel des Praktikums ist auf einer CTF Plattform (z.B. CTFd) einen Wettbewerb mit verschiedenen Aufgaben zu erstellen. Dabei können unter anderem Challenges im Bereich Web Security, Reverse Engineering, etc. erstellt werden. In jeder Aufgabe muss eine Flag gefunden werden können. Aufgaben: * Entwicklung und Ideenfindung für Aufgabenstellungen und dazugehörige Flags. * Aufbereitung von Lösungen (Write ups) * Erstellung der Challenges in der CTF Plattform * Dokumentation
Verfügbar für:
Wirtschaftsinformatik (M)
für 3 Teilnehmer (0 vergeben)
Betreuer:
Christoph Nirschl
Capture-the-Flag (CTF) competitions are widely used in cybersecurity education and training to promote hands-on skills in areas like reverse engineering, web exploitation, and cryptography. However, the learning process often depends heavily on community-contributed write-ups which may heavily vary in structure, quality, approach and are scattered across blogs, forums, and repositories. While valuable, their diversity and inconsistency can make it difficult for learners to identify repeatable strategies or understand the most effective problem-solving approaches for similar challenge types. The goal of this project is to explore how community-generated CTF write-ups can be systematically collected, analyzed, and categorized to uncover recurring solution patterns across different challenge types. By leveraging AI to identify patterns across diverse challenge types, the project aims to distill common solution strategies into structured “solution blueprints” for the identified categories and challenge difficulties. These blueprints would reflect best-practice workflows employed by successful participants and foster easier introduction to CTF challenges for beginners.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Maria Leitner
Hintergrund und Ziel ============= Analyse des aktuellen Stand der Forschung zur Organizational Mining in Process Mining Aufgabenstellung ========== * Systematische Recherche des aktuellen Stands der Forschung zu Organizational Mining * Analyse der aktuellen Themen * Gapanalyse * Interpretation der Resultate
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Jayesh-Santosh Tawade , Maria Leitner
As the demand for customized products and efficient use of resources has grown significantly, especially among Small and Medium-sized Enterprises (SMEs), these companies are approaching collaborative robots (cobots) for automating tasks and adapting to these demands. The cobots prioritize the safety of human operators and offer high flexibility. As the number of such robots grows, the need to manage their coordination and collaboration arises too. This presents new challenges for ensuring safety, security and coordination in shared spaces. Therefore, this study will contribute to addressing these challenges by providing a structured overview of the existing multi-human-cobot collaboration. In this context, a multi-human-cobot setup must include atleast two cobots or two humans along with the other, to realize our research. Description: • The thesis involves conducting a systematic literature review on the existing collaboration for multi-human-robot systems. • The goal is to provide an overview of how a multiple robotic setup coordinate with each other. • The focus is to summarize the existing research and practical approaches from other research, industries and deployed solutions, simplifying complex information in the survey. Learning Objectives: • Gain knowledge about cobots, their architectures and state-of-the-art solutions. • To learn how collaboration in robots is organized and coordinated. • Compare different collaboration approaches. • Identify common challenges and open questions in this direction.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Christoph Nirschl
With cyber threats evolving rapidly in complexity and frequency, hands on training has become essential to prepare security professionals. Platforms such as Capture-the-Flag (CTF) competitions, cyber ranges, and simulation labs aim to provide hands-on experience that cultivates technical skills, decision-making, and incident response. However, traditional static exercises often become outdated or fail to adapt to individual learners’ needs. Integrating AI into these environments offers new opportunities for generating dynamic scenarios, adapting to user behavior in real time, and delivering intelligent feedback, mechanisms, ultimately improving both the effectiveness and engagement of the training experience. The goal of this study is to conduct a systematic literature review how AI is currently used in cybersecurity training environments. It will investigate the extent to which training platforms leverage AI for functions such as automated scenario creation, personalized difficulty adjustment, adaptive hints, or performance analytics. It should provide a structured overview of existing technologies and research efforts, evaluate their strengths and limitations, and highlight approaches that show promising potentials for scalable, realistic, and effective cybersecurity education.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Christoph Nirschl
Scenario-based (cyber-)security exercises (so-called security gaming simulations or in German "Planspiele") are a vital tool in raising awareness, enhancing decision-making skills, and simulating the pressures of real-world security incidents. However, creating high-quality, coherent, and realistic training scenarios is both time-consuming and resource intensive. Recent advances in generative AI, particularly large language models (LLMs) offer promising new ways to support or automate this process. The goal of this study is to conduct a systematic literature review to investigate the current use of AI and LLMs in the design of scenarios for security gaming simulations. This should provide a structured overview of how these technologies are currently applied to generate realistic (cyber-)security relevant simulation content, such as narratives, organizational structures, roles, and dynamic threat environments. A core goal of the review is to critically analyze whether and how AI-generated content compares to human-authored scenarios in terms of security relevance, realism, educational value, complexity and adaptability. Building on the findings, the study should also propose a conceptual framework for how AI can be effectively leveraged in scenario creation (e.g. outlining what kind of content and context needs to be gathered initially, how AI methods can be selected and configured, and how the generated outputs can be validated and refined for training use).
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Maria Leitner
Background and goals ================== The aim of this work is to conduct a systematic literature review for collaborative robotics. Assignment of tasks ================== * Conduct a systematic literature review * Systematically assess current approaches and techniques to achieve confidentiality, integrity and availability * Gap analysis * Interpretation of results
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Maria Leitner
Hintergrund und Ziel ============= Analyse des aktuellen Stand der Forschung zur Sicherheit in Geschäftsprozessen Aufgabenstellung ========== * Systematische Recherche des aktuellen Stands der Forschung zu Security in Geschäftsprozessen * Analyse der aktuellen Themen * Gapanalyse * Interpretation der Resultate
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Mathias Kraus
This thesis aims to find out how the performance of Traditional Machine Learning Models should be compared to each other on tabular data. With traditional models we refer to statistical learners, such as Linear (Logistic) Regression, Decision Trees, SVMs, and Random Forests. The thesis should show, which range of public datasets are suitable for assessing the performance and how to benchmark the models based on this range and variety of datasets. At least 12 Datasets should be benchmarked with varying feature counts and feature types (categorical, numerical). The student should apply a simple cross validation setup and find out how to evaluate the models in line with the goal of the statistical test, especially given statistical independence between the test scores. The idea of this paper is to find out which models perform with given statistical power better or worse than others, by comparing the performance of the regressors and/or classifiers against each other following prominent papers (Demšar, 2006). The project will be supervised by Nico Hambauer. Demšar, J. (2006). Statistical comparisons of classifiers over multiple data sets. Journal of Machine learning research, 7(Jan), 1-30.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Mathias Kraus
Generalized Additive Models (GAMs) are very useful for several business analytics cases, because they are powerful in terms of prediction performance and still intrinsically interpretable. Your task in this thesis project will be to explore various methods and implement a method to visualize and communicate the uncertainty of explanations the GAM has learnt. You can use Bagging to train multiple GAMs and compute an average shape plot plus a confidence band. Depending on what you find in this project you can go further and communicate the uncertainty of the classifier or regressor using a preferred method of your choice. The project will be supervised by Nico Hambauer.
Verfügbar für:
Wirtschaftsinformatik (M)
für 2 Teilnehmer (0 vergeben)
Betreuer:
Mathias Kraus
Customer complaints related to financial products present a complex dataset, containing heterogeneous free text language. Application of Natural Language Processing (NLP) techniques for transformation of this unstructured text into a format suitable for clustering and unsupervised clustering as a second step is the goal of this project. Unlike classification tasks with predefined labels, this work aims to group similar texts without prior knowledge of categories. The primary objective is to evaluate a range of clustering methods and assess their effectiveness in organizing free-text complaint data. The results of this project will show if clustering is a suitable approach for evaluating and comprehending free text complaint data without the efforts of manual categorization. The project will be supervised by Hanna Debus.
Verfügbar für:
Wirtschaftsinformatik (M)
für 2 Teilnehmer (0 vergeben)
Betreuer:
Mathias Kraus
Conduct a study over a period of time to assess whether sustained interaction with interpretable AI systems leads to better user understanding of the underlying model logic, improved mental models of the domain, and enhanced independent decision-making capabilities even when the AI is not present. This project will be supervised by Julian Rosenberger.
Verfügbar für:
Wirtschaftsinformatik (M)
für 2 Teilnehmer (1 vergeben)
Betreuer:
Mathias Kraus
Constrained ML Models are machine learning models which have constrained flexibility, e.g., in a linear/logistic regression a user tells before the training that certain coefficients need to be positive/negative. While this inclusion of constraints naturally limits the possible models that can be learned, it also stabilizes the optimization. This thesis focuses on the performance evaluation of constrained ML models (constrained linear and logistic regression and monotonically constrained generalized additive model (GAM)) using benchmark datasets. The results will provide insights into when and why constrained regression methods are preferable over standard approaches in practical machine learning tasks. This project will be supervised by Mathias Kraus.
Verfügbar für:
Wirtschaftsinformatik (M)
für 2 Teilnehmer (2 vergeben)
Betreuer:
Mathias Kraus
This seminar dives into the field of Causal Machine Learning, exploring why understanding cause-and-effect, not just correlation, is important for building effective human-AI systems. Students will engage with recent developments in research to design their own causal experiments or apply Causal Machine Learning techniques to existing human-AI interaction data, ultimately uncovering insights that move beyond simple prediction. This seminar project will be supervised by Julian Rosenberger.
Verfügbar für:
Wirtschaftsinformatik (M)
für 2 Teilnehmer (0 vergeben)
Betreuer:
Mathias Kraus
Human Informed ML Models are machine learning models which have constrained flexibility that has been defined by expert knowledge (the user). In this literature review, the student should 1) identify previously proposed methods that allow the inclusion of this expert knowledge, 2) identify few core ideas of Human Informed ML Models, 3) describes these core ideas on a technical/mathematical level. As a starting point for this topic, we recommend the taxonomy by Von Rueden et al. (2021). This project will be supervised by Mathias Kraus. Von Rueden, L. et al. (2021). Informed machine learning–a taxonomy and survey of integrating prior knowledge into learning systems. IEEE Transactions on Knowledge and Data Engineering, 35(1), 614-633.