Verfügbar für:
Wirtschaftsinformatik (M)
für 2 Teilnehmer (1 vergeben)
Betreuer:
Michael Hagn
Maschinelle Lernverfahren sind häufig sogenannte Black-Box-Modelle, deren Funktionsweise für den Nutzer direkt nicht interpretierbar ist Der Forschungsbereich Explainable AI befasst sich daher mit der Erstellung von Erklärungen, welche die Interpretierbarkeit von ML-Modellen erhöhen sollen Häufig werden dabei nur Indizien, Plausibilität und Korrelationen, jedoch keine kausalen Zusammenhänge geprüft Ein Teil der Forschung zu Explainable AI berücksichtigt jedoch bereits Causality und Causability in Methoden und Auswertungen Aufgabenstellung Identifikation, Analyse und strukturierte Aufbereitung der Literatur zu Causality und Causability im Bereich von Explainable AI und zur konkreten Messung von Causability in XAI-Methoden Beispielhafte Diskussion von Causality und Causability an einer existierenden XAI-Methode Betreuung Michael Hagn
Verfügbar für:
Wirtschaftsinformatik (M)
für 3 Teilnehmer (0 vergeben)
Betreuer:
Thomas Krapf , Paul Miethaner
Maschinelle Lernverfahren (ML-Verfahren) gewinnen weiter stark an Relevanz und übernehmen zunehmend Aufgaben in Unternehmen. Gleichzeitig sind die Verfahren aufgrund ihrer Komplexität und ihres Black Box-Charakters oft nicht transparent und deren Entscheidungen nicht nachvollziehbar. Der Forschungsbereich der Explainable Artificial Intelligence (XAI) hat daher viele Methoden zur Erklärung von ML-Verfahren hervorgebracht, um Nutzer bei ihrer ML-basierten Entscheidungsfindung zu unterstützen. Oft werden daher XAI-Methoden im Rahmen von Nutzerstudien bzgl. ihrer Nützlichkeit, Verständlichkeit, Vertrauenswürdigkeit und weiteren Kriterien evaluiert. Aufgabenstellung Identifikation, Analyse und strukturierte Aufbereitung der einschlägigen Literatur zu Nutzerstudien / Human Studies von XAI-Methoden Übergreifende Diskussion und Vergleich der Nutzerstudien bzgl. Aufbau, Kriterien und Zielgrößen Betreuung Paul Miethaner und Thomas Krapf
Verfügbar für:
Wirtschaftsinformatik (M)
für 3 Teilnehmer (1 vergeben)
Betreuer:
Paul Miethaner , Thomas Krapf
Machine Learning-Verfahren, insbesondere SVMs mit komplexen Kernelfunktionen und tiefe Neuronale Netze sind oft in der Lage herausragende Ergebnisse bei Klassifikationsaufgaben zu erzielen. Allerdings wäre es aus Effizienz- und Interpretierbarkeitsgründen besser, wenn einfachere Modelle dieselbe Klassifikationsleistung erreichen würden. Daher versucht man mit Hilfe von Knowledge Distillation das „Wissen“ eines komplexeren Modells an ein simpleres Modell „weiterzugeben“. Dafür gibt es viele aktuelle Ansätze aus der Forschung, welche sich für verschiedene Modelle und reale Situationen eignen. Aufgabenstellung Strukturierte Literatursuche aktueller und bewährter Ansätze Strukturierung und Aufbereitung der Suchergebnisse insbes. bezüglich Modelltypen Betreuung Paul Miethaner und Thomas Krapf
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Daniel Konadl
Bestandteile: Vorstellung des Themas, Motivation und Zielsetzung der Arbeit Theoretische Einordnung: Digital Healthcare, Chatbots Systematische und strukturierte Aufarbeitung der einschlägigen Information Systems Literatur Identifikation bestehender Anwendungsgebiete und Zielsetzungen sowie der Potenziale und Herausforderungen von Chatbots im Kontext von Digital Healthcare Konsolidierung der Ergebnisse, Aufzeigen von Forschungslücken und zukünftigen Forschungsmöglichkeiten Diskussion, Schlussbetrachtung und kritische Würdigung der Arbeit Voraussetzungen: Interesse an literaturbasierter Arbeit sowie an den Themenbereichen Digital Healthcare und Chatbots Einstiegsliteratur: Vom Brocke, J., Simons, A., Riemer, K., Niehaves, B., Plattfaut, R., und Cleven, A. (2015). Standing on the shoulders of giants: Challenges and recommendations of literature search in information systems research. Communications of the Association for Information Systems, 37(1). Mayring, P. (2004). Qualitative content analysis. A Companion to Qualitative Research, 1(2), 159-176. Meier, P., Beinke, J. H., Fitte, C., Behne, A., und Teuteberg, F. (2019). FeelFit-Design and Evaluation of a Conversational Agent to Enhance Health Awareness. Proceedings of the 40th International Conference on Information Systems.
Verfügbar für:
Wirtschaftsinformatik (M)
für 2 Teilnehmer (2 vergeben)
Betreuer:
Janik Wörner
Das Seminar untersucht den Einsatz generativer Künstlicher Intelligenz (KI) bei der Entwicklung von Geschäftsprozessen. Generative KI, die durch maschinelles Lernen und neuronale Netzwerke in der Lage ist, kreative Prozesse nachzuahmen und neue Inhalte zu erstellen, bietet vielfältige Anwendungsmöglichkeiten in der Wirtschaft. Ziel dieser Arbeit ist es, durch eine umfassende Literaturübersicht die Potenziale und Herausforderungen von generativer KI in der Geschäftsprozessentwicklung mittels BPM zu identifizieren und zu analysieren. Bestandteile Einleitung: Vorstellung des Themas, Motivation und Zielsetzung der Arbeit. Theoretische Einordnung: Generative AI, Grundlagen Entwicklung von Geschäftsprozessen, BPM, … Literatursuche / -analyse: Identifikation bestehender Ansätze zur Integration von Gen AI in den Entwicklungsprozess sowie deren Potenziale und Herausforderungen. Identifikation von Erfolgsfaktoren für den erfolgreichen Einsatz. Bewertung der identifizierten Ansätze anhand der Erfolgsfaktoren. Diskussion der Ergebnisse und Schluss Voraussetzungen: Interesse an literaturbasierter Arbeit und den Themen Generativer KI / Geschäftsmodellentwicklung. Einstiegsliteratur: Beheshti et al., "ProcessGPT: Transforming Business Process Management with Generative Artificial Intelligence," 2023 IEEE International Conference on Web Services (ICWS), Chicago, IL, USA, 2023, pp. 731-739, doi: 10.1109/ICWS60048.2023.00099
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Isabel Reuter
Das Thema analysiert die kritischen Erfolgsfaktoren, die für eine erfolgreiche Implementierung von Green Lean Six Sigma (GLSS) notwendig sind. Ziel ist es, aus der bestehenden Forschung zentrale Faktoren abzuleiten, die den Erfolg nachhaltiger Prozessverbesserungsprojekte beeinflussen und deren Bedeutung sowie Wechselwirkungen zu bewerten. Bestandteile Einleitung: Vorstellung des Themas, Motivation und Zielsetzung der Arbeit. Theoretische Einordnung: Green Lean Six Sigma (GLSS), Kritische Erfolgsfaktoren Inhalt: Systematischer Literature Review mit Untersuchung der GLSS-Literatur zu Erfolgsfaktoren und Herausforderungen Systematische Darstellung der wesentlichen Faktoren für den Erfolg von GLSS-Projekten Auffälligkeiten vorhanden? (Häufigkeit von bestimmten Faktoren, Wechselwirkungen, …) Ableitung von Best Practice Diskussion der Ergebnisse und Fazit Voraussetzungen: Interesse an Six Sigma/ Lean Management / ökologischer Nachhaltigkeit Einstiegsliteratur: Kaswan, M.S., & Rathi, R. (2020). Green Lean Six Sigma for sustainable development: Integration and framework. Environmental Impact Assessment Review, 83, 106396.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Isabel Reuter
Die Arbeit zielt darauf ab, wissenschaftliche Literatur über Chatbots zu kritischen Erfolgsfaktoren systematisch zu analysieren und deren Ausprägung in unterschiedlichen Anwendungskontexten zu vergleichen. Dadurch wird erkennbar, ob und wie sich branchenspezifische Anforderungen auf den Erfolg von Chatbot-Anwendungen auswirken. Bestandteile Einleitung: Vorstellung des Themas, Motivation und Zielsetzung der Arbeit. Theoretische Einordnung: Begriffliche Abgrenzung und Klassifikation von Chatbots, Kritische Erfolgsfaktoren Inhalt: Systematischer Literature Review: Überblick und Analyse aktueller Fachartikel zu Anwendungsfällen und technischen Entwicklungen von Chatbots die kritische Erfolgsfaktoren beschreiben, beschränkt auf einen Anwendungskontext (z. B. E-Commerce und Kundenservice) Extraktion und Kategorisierung von Erfolgsfaktoren (z. B. technologisch, nutzerzentriert, organisatorisch) Ableitung von Best Practice Diskussion der Ergebnisse und Fazit Voraussetzungen: Interesse an literaturbasierter Arbeit und kritischen Erfolgsfaktoren von Chatbots Einstiegsliteratur: Skuridin, A., & Wynn, M.G. (2024). Chatbot Design and Implementation: Towards an Operational Model for Chatbots. Inf., 15, 226. Zhang, J.J., Følstad, A., & Bjørkli, C.A. (2021). Organizational Factors Affecting Successful Implementation of Chatbots for Customer Service. Journal of Internet Commerce, 22, 122 - 156.
Verfügbar für:
Wirtschaftsinformatik (M) , BWL (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Maximilian Wittig
Das Ökosystem zur Auswahl, Auslieferung und Erfolgskontrolle von Online-Werbung ist hochkomplex. Es beruht auf zahlreichen Interaktionen zwischen verschiedenen Akteuren, die in Echtzeit Werbeflächen an den Höchstbietenden versteigern. Für den Nutzer bleibt dieser Prozess jedoch weitgehend intransparent. Personenbezogene Daten werden dabei häufig an Werbetreibende, Demand-Side-Plattformen, Supply-Side-Plattformen oder Data Broker weitergegeben – oft ohne, dass der Nutzer in einer direkten Beziehung zu diesen Parteien steht. Das aktuelle System benachteiligt somit den Nutzer. In den letzten Jahren wurden sowohl in der Wissenschaft als auch in der Industrie verschiedene Lösungsansätze entwickelt, um den Datenschutz im Werbeökosystem zu stärken. Ziel ist es, dem Nutzer a) mehr Transparenz über den Werbeprozess zu verschaffen und b) mehr Kontrolle über den Informationsfluss zu ermöglichen. Im Rahmen dieser Seminararbeit sollen wissenschaftliche Ansätze für datenschutzfreundliches Ad Targeting systematisch identifiziert, analysiert und miteinander verglichen werden. Ein besonderer Fokus liegt dabei auf dem jeweils angenommenen Angreiferszenario, dem angestrebten Schutzziel (welche Informationen sollen geschützt werden) sowie der Funktionsweise der eingesetzten Schutzmechanismen. Zusätzlich sollen Herausforderungen dieser Ansätze, etwa hinsichtlich Performance, Skalierbarkeit oder der unterstützten Werbeformen (z. B. interessenbasierte Werbung, Re-Targeting), kritisch betrachtet werden. Mögliche Forschungsfragen: 1. Welche akademischen Ansätze existieren für datenschutzfreundliches Ad Targeting? 2. Welches Angreifermodell wird in der Literatur angenommen? 3. Welche Informationen werden jeweils geschützt (z. B. die Verknüpfung eines Nutzers mit seinem Nutzerprofil)? 4. Welche Einschränkungen und Herausforderungen bestehen bei der praktischen Umsetzung dieser Ansätze (z. B. Performance, Skalierbarkeit, unterstützte Werbeformen)? Startliteratur: Adnostic, AdVeil
Verfügbar für:
Wirtschaftsinformatik (M) , BWL (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Maximilian Wittig
Das Ökosystem zur Auswahl, Auslieferung und Erfolgsmessung von Online-Werbung ist hochkomplex. Es besteht aus zahlreichen Interaktionen zwischen verschiedenen Akteuren, die Werbeplätze in Echtzeit an den Höchstbietenden versteigern. Für Nutzer bleibt dieser Prozess jedoch weitgehend intransparent, da personenbezogene Daten an Werbetreibende, Demand-Side- und Supply-Side-Plattformen sowie Data Broker weitergegeben werden – häufig ohne direkte Geschäftsbeziehung zum Nutzer. Das bestehende System benachteiligt somit die Nutzerperspektive. Sowohl in Wissenschaft als auch Industrie wurden verschiedene Lösungsansätze entwickelt, die Datenschutz und Privatsphäre im Werbeökosystem verbessern sollen. Ziel ist es, dem Nutzer a) mehr Transparenz über den Werbeprozess und b) mehr Kontrolle über die Weitergabe von Daten zu ermöglichen. Diese Seminararbeit hat zum Ziel, industrielle Ansätze für Privacy-Preserving Ad Targeting systematisch zu identifizieren, deren technische Funktionsweise zu analysieren und miteinander zu vergleichen. Dabei soll sowohl der Schutz der jeweiligen Informationstypen als auch die eingesetzten Mechanismen betrachtet werden. Außerdem sollen Herausforderungen dieser Ansätze, etwa hinsichtlich Performance, Skalierbarkeit oder unterstützter Werbeformen (interessenbasierte Werbung, Re-Targeting etc.), kritisch diskutiert werden. Startliteratur: Data Clean Rooms, Topics API, Unified ID 2.0, WebKit Privacy-Preserving Ad Click Attribution, Mozilla Anonym Mögliche Forschungsfragen: 1. Welche industriellen Ansätze für datenschutzfreundliches Ad Targeting existieren aktuell? 2. Welche Arten von Daten werden jeweils geschützt und welche technischen Verfahren kommen zum Einsatz? 3. Welche Herausforderungen und Einschränkungen ergeben sich bei der praktischen Umsetzung dieser Lösungen (z. B. Performance, Skalierbarkeit, unterstützte Werbeformen)?
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Karsten Evers
Von Wahrscheinlichkeitsräumen zu Sicherheitsbeweisen: Ein formales Rahmenwerk für Anonymität In der Arbeit soll untersucht werden, wie sich Anonymität und verwandte Sicherheitsziele in digitalen Kommunikationssystemen formal und präzise modellieren lassen. Während kryptographische Verfahren in der Fachliteratur meist in einem streng formalen Rahmen, bei dem Definitionen, Sätze und Beweise im Mittelpunkt stehen, entwickelt werden, erfolgt die Behandlung mehrseitiger Sicherheit und anonymer Kommunikation häufig weniger formal, insbesondere in praxisorientierter Literatur. Ziel der Arbeit ist es daher, auf Basis probabilistischer Modelle ein präzises Rahmenwerk für Anonymitätskonzepte zu entwickeln, das sich an den formalen Standards kryptographischer Sicherheitsbeweise orientiert. Dabei soll gezeigt werden, wie sich auch komplexe Konzepte aus dem Bereich der Anonymität in präzise mathematische Modelle fassen lassen, die auf klaren Definitionen und beweisbaren Eigenschaften beruhen. Besonderer Wert soll auf eine formale, aber zugleich verständliche Darstellung gelegt werden, die mit den mathematischen Grundlagen des Grundstudiums gut nachvollziehbar ist. Literatur zum Einstieg Delfs Knebl (2015) Introduction to Cryptography, Springer Peng (2014) Anonymous Communication Networks, CRC Press Pfitzmann (2012) Sicherheit in Rechnernetzen: Mehrseitige Sicherheit in verteilten und durch verteilte Systeme (Vorlesungsskript) https://dud.inf.tu-dresden.de/~sk13/TUD-Web-CMS/LV/SaC-II/Skript.pdf Wagner, Eckhoff (2018) Technical privacy metrics: a systematic survey https://arxiv.org/pdf/1512.00327
Verfügbar für:
Wirtschaftsinformatik (M) , BWL (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Maximilian Wittig
Blinde Signaturen sind ein kryptographisches Verfahren, das es ermöglicht, digitale Nachrichten von einer dritten Partei signieren zu lassen, ohne dass diese den Inhalt der Nachricht kennt. Dieses Prinzip erlaubt es, Authentizität zu gewährleisten, ohne die Privatsphäre des Nutzers zu kompromittieren. Im Web finden blinde Signaturen zunehmend Anwendung, insbesondere in datenschutzsensiblen Szenarien. Beispiele hierfür sind: - Privacy Pass: Reduziert die Anzahl von CAPTCHAs, insbesondere für Tor-Nutzer wichtig. - AdVeil: Eine datenschutzfreundliche Alternative für Online-Targeting. - Private Fraud Prevention: Erlaubt das datenschutzgerechte Loggen von Nutzerinteraktionen (Touchpoints). Die zugrundeliegenden Kryptosysteme unterscheiden sich teils erheblich in ihrer mathematischen Grundlage, ihrer Sicherheit und ihrer praktischen Umsetzbarkeit. Ziel dieses Seminars ist es, blinde Signaturen im Kontext des Webs systematisch zu identifizieren und zu vergleichen. Untersucht werden sollen die eingesetzten Kryptosysteme, die jeweiligen Anwendungsfelder und deren konkrete Einsatzzwecke. Der Recherchefokus kann sich dabei auf akademische Datenbanken wie die ACM Digital Library, Springer Link oder IEEE Xplore beschränken. Mögliche Forschungsfragen: 1. Welche Kryptosysteme werden für blinde Signaturen im Web eingesetzt? 2. Welche Eigenschaften und Besonderheiten haben diese Kryptosysteme? 3. Für welche konkreten Einsatzzwecke werden blinde Signaturen verwendet (z. B. Online-Werbung, Bot-Detection etc.)?
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Karsten Evers
In Zeiten allgegenwärtiger Datensammlung gewinnt der Schutz individueller Privatsphäre immer mehr an Bedeutung. Differential Privacy (DP) bietet einen formalisierten Rahmen, um diesen Schutz zu quantifizieren und findet bereits praktische Anwendung bei führenden Technologieunternehmen und in staatlichen Erhebungen, was die Bedeutung der theoretischen Konzepte für reale Datenschutzlösungen verdeutlicht. Ein zentrales Merkmal von DP ist, dass sie Mechanismen beschreibt, die verhindern, dass Rückschlüsse auf Einzelpersonen möglich sind, selbst dann, wenn Angreifer über umfangreiches Hintergrundwissen verfügen. In diesem Seminar sollen die mathematischen Grundlagen von DP erarbeitet werden. Dazu gehören die formale Definition, zentrale Mechanismen sowie deren mathematische Eigenschaften und Grenzen. Ziel ist es, die wichtigsten Resultate und Beweisideen verständlich aufzubereiten und einen Überblick über aktuelle Anwendungen und Herausforderungen zu geben. Literatur zum Einstieg Dwork, Roth (2014) The Algorithmic Foundations of Differential Privacy Li, Lyu, Su, Yang (2017) Differential Privacy - From Theory to Practice, Morgan & Claypool
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Karsten Evers
Mit dem Aufkommen leistungsfähiger Quantencomputer geraten klassische kryptographische Verfahren wie bspw. RSA zunehmend unter Druck, da Quantenalgorithmen wie der von Shor diese Verfahren effizient brechen könnten. Die Post-Quanten-Kryptographie beschäftigt sich daher mit der Entwicklung und Analyse von kryptographischen Algorithmen, deren Sicherheit auch im Zeitalter von Quantencomputern gewährleistet ist. In dieser Arbeit sollen zunächst die mathematischen Grundlagen der Post-Quanten-Kryptographie behandelt werden. Dazu gehören die Beschreibung der wichtigsten Problemklassen, die Funktionsweise einiger quantensicherer Algorithmen sowie die Analyse ihrer Sicherheit und die verständliche Aufarbeitung der entsprechenden Beweise. Ziel ist es außerdem, ausgewählte Aspekte des aktuellen Forschungsstands in knapper Form zusammenzufassen und die Bedeutung quantensicherer Kryptographie für die IT-Sicherheit der Zukunft in Grundzügen darzustellen. Ein Blick auf den aktuellen Standardisierungsprozess des US-amerikanischen NIST, das derzeit quantensichere Verfahren für den praktischen Einsatz auswählt, kann den Bezug zur Anwendungspraxis verdeutlichen. Literaturvorschläge: Bernstein Buchmann Dahmen (2009) Post-quantum cryptography, Springer Paar Pelzl Guneysu (2024) Understanding Cryptography, Springer Stinson Paterson (2019) Cryptography, CRC Press
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Marc Roßberger
In der heutigen digitalen Welt sind Instant-Messenger wie WhatsApp, Signal, Threema und Telegram zu einem unverzichtbaren Kommunikationsmittel geworden. Durch die untrennbare Einbindung in unseren Alltag und das Versenden von immer mehr Nachrichten mit teils sehr persönlichen Inhalten sind die Sicherheit dieser Dienste und die Privatsphäre von Nutzern ein relevantes Thema. Insbesondere für verfolgte Randgruppen, Journalisten und Whistleblower sind anonyme Messenger deshalb sehr wichtig. In diesem Seminar sollen mithilfe einer systematischen Literaturrecherche eine Übersicht über De-Anonymisierungs-Angriffe gegen Instant Messenger gegeben werden. Dabei kann eine Kategorisierung bspw. nach Angriffs-Art, Ziel, Plattform, Schutzmaßnahmen, Angreifermodell (Mächtigkeit, Position, Voraussetzungen, …), … erfolgen.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Marc Roßberger
Instant-Messenger wie WhatsApp, Telegram und Signal sind aus dem Alltag vieler Menschen nicht mehr wegzudenken. Sie haben die Art und Weise, wie wir kommunizieren, grundlegend verändert. Das Verständnis der Kommunikationsmuster in diesen Plattformen ist von großer Bedeutung, um Einblicke in das menschliche Kommunikationsverhalten zu gewinnen, weshalb sich einige Arbeiten damit beschäftigt haben, echte Kommunikationsdaten aus diesen Messengern zu sammeln. In diesem Seminar soll mithilfe einer systematischen Literaturrecherche identifiziert werden, welche Arbeiten wie Datensätze aus Messengern erhoben haben (z.B. freiwilliges Einreichen von Chat-Verläufen [1], Datensammlung in öffentlichen Gruppen [2]). Dabei kann bspw. auf betrachtete Messenger, die genutzte Methodik, als auch ob und wie diese Datensätze verwendet und veröffentlich wurden, und die Repräsentativität der Datensätze eingegangen werden. [1] https://ieeexplore.ieee.org/abstract/document/10064263 [2] https://ojs.aaai.org/index.php/ICWSM/article/view/14989
Verfügbar für:
Wirtschaftsinformatik (M) , BWL (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Maximilian Wittig
Online-Werbung ist ein zentraler Finanzierungsmechanismus im Web. Dabei dominieren zwei unterschiedliche Ansätze zur Platzierung von Werbung: verhaltensbasierte Werbung und kontextbasierte Werbung. Verhaltensbasierte Werbung (Behavioral Targeting) nutzt detaillierte Informationen über das vergangene Surfverhalten und das Nutzerprofil, um personalisierte Werbung anzuzeigen. Hierbei werden über mehrere Webseiten hinweg Daten gesammelt, um Interessen, demografische Merkmale und Vorlieben des Nutzers möglichst genau zu bestimmen. Typische Techniken beinhalten Third-Party-Tracking, Cross-Site-Cookies und Profilbildung über längere Zeiträume. Kontextbasierte Werbung (Contextual Targeting) hingegen analysiert den unmittelbaren Kontext, in dem die Werbung angezeigt wird – etwa den Inhalt einer Webseite, das Thema eines Artikels oder aktuelle Suchbegriffe. Zusätzlich können situative Informationen wie aktuelle Session-Daten oder First-Party-Daten verwendet werden. Der Fokus liegt hier nicht auf dem Nutzer, sondern auf der Relevanz der Werbung zur aktuellen Umgebung. Mit der zunehmenden Regulierung von Tracking-Technologien (z. B. durch die Datenschutz-Grundverordnung, Browser-Schutzmaßnahmen oder den Rückgang von Third-Party-Cookies) gewinnt kontextbasierte Werbung als datensparsame Alternative zunehmend an Bedeutung. In diesem Seminar sollen beide Werbeformen systematisch verglichen werden: Welche Daten werden jeweils benötigt? Wie tiefgreifend müssen Nutzerprofile sein? Welche technischen und ökonomischen Unterschiede bestehen? Ziel ist es, den Wandel im Online-Werbemarkt zu verstehen und zu analysieren, welche Rolle datensparsame Verfahren künftig spielen können. Mögliche Forschungsfragen: 1. Was unterscheidet verhaltensbasierte von kontextbasierter Werbung technisch und organisatorisch? Welche Informationen werden jeweils verarbeitet? 2. Wie profitabel sind verhaltensbasierte und kontextbasierte Werbung im Vergleich? Welche Faktoren beeinflussen den wirtschaftlichen Erfolg? 3. Wie umfangreich und langfristig müssen Nutzerprofile sein, um verhaltensbasierte Werbung effektiv zu betreiben? Welche Rolle spielen First-Party-Daten bei kontextbasierter Werbung? Startliteratur: - Bleier, A. (2021). On the Viability of Contextual Advertising as a Privacy-Preserving Alternative to Behavioral Advertising on the Web. - IAB Europe (2021): Guide to Contextual Advertising.
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Andreas Schauer
MAIN IDEA & RESEARCH QUESTIONS As machine learning (ML) models become central in high-stakes decision-making, the need for interpretable and trustworthy systems grows. Explainable AI (XAI) methods aim to make ML model behavior transparent by providing human-understandable explanations. However, these explanations are not without their own uncertainty. Even when applied to the same ML model, different runs of an XAI method may yield inconsistent or even contradictory explanations. This raises a critical and often overlooked issue: the uncertainty introduced by the XAI method itself. The theoretical seminar thesis aims to explore this form of uncertainty. It aims to investigate how and why explanation outputs can vary, and what this means for the trustworthiness and reliability of AI systems. The goal is to identify, compare, and evaluate existing approaches to quantifying uncertainty in XAI methods and to reflect on their implications for the interpretation and communication of explanations in practice. Possible research questions include but are not limited to: How can the uncertainty introduced by an XAI method be defined and understood conceptually? What causes uncertainty in the outputs of XAI methods? What methods exist (or could be developed) to quantify such uncertainty? LITERATURE Bobek, S., & Nalepa, G. J. (2021, June). Introducing uncertainty into explainable ai methods. In International Conference on Computational Science (pp. 444-457). Cham: Springer International Publishing. Marx, C., Park, Y., Hasson, H., Wang, Y., Ermon, S., & Huan, L. (2023, April). But are you sure? an uncertainty-aware perspective on explainable ai. In International conference on artificial intelligence and statistics (pp. 7375-7391). PMLR. Slack, D., Hilgard, A., Singh, S., & Lakkaraju, H. (2021). Reliable post hoc explanations: Modeling uncertainty in explainability. Advances in neural information processing systems, 34, 9391-9404.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Linda Kölbel
As part of this seminar paper, a comprehensive literature review will be conducted to investigate which established methods currently exist for identifying potential security vulnerabilities by analyzing network data. The aim is to analyze and evaluate the respective methods with regard to their suitability for different application scenarios in IIoT processes. In addition, the selected approaches are to be transferred and adapted to specific IIoT contexts. Based on the knowledge gained, concrete improvement measures and practical recommendations for securing IIoT systems will be derived.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Daniel Oberhofer
Cyber security information sources are diverse, but provide valuable information, that can be used to make a system more secure, or asses potential threats to an organization. There are offensive databases, that describe potential attack Tactics, Techniques and Procedures (TTPs) and in contrary there are databases, that describe defensive Tactics and Techniques, that can be used to strenghen defensive efforts. Combining these data sources , by defining novel ways of relationships in between them can be achieved by Cyber Security Knowledge graphs. This seminar includes a structured literature review, that identifies potential and use cases of this upcoming technology in research.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Leo Poss
Complex event processing (CEP) enables the recognition of patterns and correlations in real-time data streams. While practical implementations of CEP exist in various forms, the concrete implementation details, their theoretical background, and formal description often remain unclear. A systematic investigation of the underlying algorithms, data structures, and mathematical formalization is required to use CEP efficiently and scalably. Within the scope of the seminar, detailed literature research on the formalization and formal representations of Complex Event Processing will be carried out. The focus is on the analysis of existing CEP approaches, their mathematical foundations, and algorithmic implementation. - D. Gyllstrom, E. Wu, H.-J. Chae, Y. Diao, P. Stahlberg, and G. Anderson, “SASE: Complex Event Processing over Streams,” in CIDR, 2007. - G. Cugola and A. Margara, “TESLA: a formally defined event specification language,” in DEBS, 2010.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Linda Kölbel
As part of this seminar paper, a literature review will be conducted to analyze the already established, existing concepts and methods in the field of Business Process Improvement (BPI). The focus is on investigating the implementation possibilities of these methods in various application scenarios of IIoT processes. The aim of the work is to evaluate the suitability and effectiveness of selected BPI approaches for the analysis, monitoring, and optimization of IIoT processes. In addition, existing challenges as well as possible adaptations and prerequisites that are necessary to successfully use BPI technologies in IIoT contexts will be identified.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Maria Leitner
Hintergrund und Ziel ============= Analyse des aktuellen Stand der Forschung zur Organizational Mining in Process Mining Aufgabenstellung ========== * Systematische Recherche des aktuellen Stands der Forschung zu Organizational Mining * Analyse der aktuellen Themen * Gapanalyse * Interpretation der Resultate
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Jayesh-Santosh Tawade , Maria Leitner
As the demand for customized products and efficient use of resources has grown significantly, especially among Small and Medium-sized Enterprises (SMEs), these companies are approaching collaborative robots (cobots) for automating tasks and adapting to these demands. The cobots prioritize the safety of human operators and offer high flexibility. As the number of such robots grows, the need to manage their coordination and collaboration arises too. This presents new challenges for ensuring safety, security and coordination in shared spaces. Therefore, this study will contribute to addressing these challenges by providing a structured overview of the existing multi-human-cobot collaboration. In this context, a multi-human-cobot setup must include atleast two cobots or two humans along with the other, to realize our research. Description: • The thesis involves conducting a systematic literature review on the existing collaboration for multi-human-robot systems. • The goal is to provide an overview of how a multiple robotic setup coordinate with each other. • The focus is to summarize the existing research and practical approaches from other research, industries and deployed solutions, simplifying complex information in the survey. Learning Objectives: • Gain knowledge about cobots, their architectures and state-of-the-art solutions. • To learn how collaboration in robots is organized and coordinated. • Compare different collaboration approaches. • Identify common challenges and open questions in this direction.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Christoph Nirschl
With cyber threats evolving rapidly in complexity and frequency, hands on training has become essential to prepare security professionals. Platforms such as Capture-the-Flag (CTF) competitions, cyber ranges, and simulation labs aim to provide hands-on experience that cultivates technical skills, decision-making, and incident response. However, traditional static exercises often become outdated or fail to adapt to individual learners’ needs. Integrating AI into these environments offers new opportunities for generating dynamic scenarios, adapting to user behavior in real time, and delivering intelligent feedback, mechanisms, ultimately improving both the effectiveness and engagement of the training experience. The goal of this study is to conduct a systematic literature review how AI is currently used in cybersecurity training environments. It will investigate the extent to which training platforms leverage AI for functions such as automated scenario creation, personalized difficulty adjustment, adaptive hints, or performance analytics. It should provide a structured overview of existing technologies and research efforts, evaluate their strengths and limitations, and highlight approaches that show promising potentials for scalable, realistic, and effective cybersecurity education.
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Christoph Nirschl
Scenario-based (cyber-)security exercises (so-called security gaming simulations or in German "Planspiele") are a vital tool in raising awareness, enhancing decision-making skills, and simulating the pressures of real-world security incidents. However, creating high-quality, coherent, and realistic training scenarios is both time-consuming and resource intensive. Recent advances in generative AI, particularly large language models (LLMs) offer promising new ways to support or automate this process. The goal of this study is to conduct a systematic literature review to investigate the current use of AI and LLMs in the design of scenarios for security gaming simulations. This should provide a structured overview of how these technologies are currently applied to generate realistic (cyber-)security relevant simulation content, such as narratives, organizational structures, roles, and dynamic threat environments. A core goal of the review is to critically analyze whether and how AI-generated content compares to human-authored scenarios in terms of security relevance, realism, educational value, complexity and adaptability. Building on the findings, the study should also propose a conceptual framework for how AI can be effectively leveraged in scenario creation (e.g. outlining what kind of content and context needs to be gathered initially, how AI methods can be selected and configured, and how the generated outputs can be validated and refined for training use).
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Maria Leitner
Background and goals ================== The aim of this work is to conduct a systematic literature review for collaborative robotics. Assignment of tasks ================== * Conduct a systematic literature review * Systematically assess current approaches and techniques to achieve confidentiality, integrity and availability * Gap analysis * Interpretation of results
Verfügbar für:
Wirtschaftsinformatik (M)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Maria Leitner
Hintergrund und Ziel ============= Analyse des aktuellen Stand der Forschung zur Sicherheit in Geschäftsprozessen Aufgabenstellung ========== * Systematische Recherche des aktuellen Stands der Forschung zu Security in Geschäftsprozessen * Analyse der aktuellen Themen * Gapanalyse * Interpretation der Resultate
Verfügbar für:
Wirtschaftsinformatik (M)
für 2 Teilnehmer (2 vergeben)
Betreuer:
Mathias Kraus
This seminar dives into the field of Causal Machine Learning, exploring why understanding cause-and-effect, not just correlation, is important for building effective human-AI systems. Students will engage with recent developments in research to design their own causal experiments or apply Causal Machine Learning techniques to existing human-AI interaction data, ultimately uncovering insights that move beyond simple prediction. This seminar project will be supervised by Julian Rosenberger.
Verfügbar für:
Wirtschaftsinformatik (M)
für 2 Teilnehmer (0 vergeben)
Betreuer:
Mathias Kraus
Human Informed ML Models are machine learning models which have constrained flexibility that has been defined by expert knowledge (the user). In this literature review, the student should 1) identify previously proposed methods that allow the inclusion of this expert knowledge, 2) identify few core ideas of Human Informed ML Models, 3) describes these core ideas on a technical/mathematical level. As a starting point for this topic, we recommend the taxonomy by Von Rueden et al. (2021). This project will be supervised by Mathias Kraus. Von Rueden, L. et al. (2021). Informed machine learning–a taxonomy and survey of integrating prior knowledge into learning systems. IEEE Transactions on Knowledge and Data Engineering, 35(1), 614-633.