Verfügbar für:
Informatik (B) , Data Science (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Paul Miethaner , Bernd Heinrich
Wir präsentieren das Thema kurz in: https://mediathek2.uni-regensburg.de/playthis/698f117ed90880.99967337 Kontext Maschinelle Lernverfahren, insbesondere neuronale Netze (NNs) gewinnen stark an Relevanz in IT und Wirtschaft. Hierbei stellt sich in der Anwendung oft die Frage, wie sicher sich ein Modell in einer gewissen Entscheidung ist (Konfidenz). In der Literatur gibt es daher eine Vielzahl von Metriken, welche zum Ziel haben die Konfidenz dieser Entscheidungen zu messen. Gleichzeitig wurde am Lehrstuhl eine neue Methode entwickelt, welche die Entscheidungsgrenzen eines NNs mathematisch funktional berechnet. Aufgabenstellung Konzeption einer neuen Konfidenzmetrik, welche die zusätzliche Information der Entscheidungsgrenzen nutzt. Implementierung der Konzepte in der bestehenden Code-Basis in Python. Empfohlen Interesse und Spaß an AI und Programmierung
Verfügbar für:
Informatik (B) , Data Science (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Paul Miethaner , Bernd Heinrich
Wir stellen dieses Thema kurz vor in: https://mediathek2.uni-regensburg.de/playthis/698f117ed90880.99967337 Kontext Maschinelle Lernverfahren gewinnen stark an Relevanz und übernehmen zunehmend Aufgaben in IT und Wirtschaft Insbesondere werden komplexe CNNs verwendet, um Klassifikationen auf Bilddaten durchzuführen. Gleichzeitig sind diese aufgrund ihrer Komplexität und ihres Black Box-Charakters oft nicht transparent und deren Entscheidungen nicht nachvollziehbar. Daher wurde am Lehrstuhl eine neue Explainable Artificial Intelligence (XAI) Methode entwickelt, die die Entscheidungs-grenzen eines CNNs mathematisch funktional berechnet. Aufgabenstellung Konzeption eines Tools, welche die Analyse, Visualisierung und Interpretation der Entscheidungen von CNNs ermöglicht. Implementierung dieser Funktionalitäten in Python. Empfohlen Interesse und Spaß an AI / Programmierung und Visualisierung
Verfügbar für:
Informatik (B) , Data Science (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Marc Roßberger
Fuzzing ist eine der effektivsten Techniken zum Auffinden sicherheitsrelevanter Softwarefehler. Moderne Fuzzer nutzen unterschiedliche Strategien wie coverage guided fuzzing, mutational fuzzing, grammar based fuzzing oder hybrid fuzzing. Ein systematischer Vergleich dieser Ansätze liefert wertvolle Erkenntnisse über Stärken, Schwächen und praktische Einsatzszenarien. Ziel dieser Bachelorarbeit ist die systematische Untersuchung moderner Fuzzing Ansätze und deren Wirksamkeit bei der Analyse realer Software. Die Arbeit umfasst zunächst eine fundierte theoretische Einführung in Fuzzing, aktuelle Forschungstrends sowie gängige Fuzzing Tools. Anschließend wird eine praktische Fuzzing Kampagne auf einem ausgewählten Open Source Projekt durchgeführt. Mehrere Fuzzer und Konfigurationen sollen verglichen, die Ergebnisse ausgewertet und mögliche Strategien zur Verbesserung der Testabdeckung untersucht werden.
Verfügbar für:
Informatik (B) , Data Science (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Marc Roßberger
In today’s digital ecosystem, instant messengers such as WhatsApp, Signal, Threema, and Telegram have become indispensable communication tools. Their deep integration into everyday life—and the increasing volume of highly personal messages exchanged—make the security and privacy of these services a critical issue. Anonymous messaging systems are therefore particularly important for vulnerable groups, journalists, and whistleblowers. To protect against traffic-analysis attacks, various anonymization approaches, including mix networks, employ artificial cover traffic to obfuscate real communication patterns. The goal of this thesis is to design and evaluate a predictive dummy-traffic approach based on forecasting user activity. Instead of generating constant overhead, dummy traffic should be injected selectively during periods with high risk of correlation or deanonymization, guided by predictions of upcoming communication events. The thesis compares heuristic and learning-based prediction models, integrates padding strategies derived from these predictions, and evaluates their impact on privacy, latency, and overhead.
Verfügbar für:
Informatik (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Nico Hambauer
The Industrial Internet of Things (IIoT) connects a vast number of devices and machines, creating an ever-increasing amount of data. Many devices and sensors transmit safety-critical data throughout the production process. This thesis will analyze network traffic recorded at two industry partners, which are known companies in the field of mechanical and plant engineering. The aim of this thesis is to use Python to evaluate cybersecurity requirements in industrial manufacturing. So-called cybersecurity controls are summarized in seven fundamental requirements of the central standard ISO/IEC 62443. Based on the network data, the aim is to identify which security controls within IEC 62443 can be assessed, verified, and validated using the available data from our partners.
Verfügbar für:
Informatik (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Nico Hambauer
Industrial Internet of Things (IIoT) is employed in industrial manufacturing. IIoT devices generate vast amounts of data and already use highly specialized protocols for device-to-device communication. Protocols such as OPC UA enable the exchange of information on the cybersecurity aspects of manufacturing machines and devices, including access rights (authorization), certificates (authentication), and encryption. The aim of this work is to replicate a study entitled “Reading between the Lines: Process Mining on OPC UA Network Data” using data from an industry partner and international player in the field of mechanical engineering. Hornsteiner, M., Empl, P., Bunghardt, T., Schönig, S. (2024). Reading between the Lines: Process Mining on OPC UA Network Data. Sensors. 24, 4497. https://doi.org/10.3390/s24144497
Verfügbar für:
Informatik (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Michael Reinstein
DevCheck ist eine bereits existierende Code Assessment Plattform, bei welcher Teilnehmende Ihre Lösungen zu Java Coding Aufgaben abgeben können. Das System prüft diese Abgabe automatisiert in einem Docker Container und gibt dem Teilnehmenden eine Rückmeldung über die Richtigkeit der Abgabe. Aktuell nutzt DevCheck dabei Docker, NextJS und PostgreSQL. Im Laufe dieser Bachelorarbeit soll ein Rewrite von DevCheck durchgeführt werden. Inklusive des Findens eines neuen Stacks, sowie die Implementation der Funktionalität des Programms.
Verfügbar für:
Informatik (B) , Data Science (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Jayesh-Santosh Tawade
Background ================================= Collaborative robotics is an emerging field wherein the industries and especially, SMEs are adapting this technology in their modern environments. However, due to their heavy computational and energy costs, speed, safety and availability, it becomes difficult to perform continuous experiments. This is where simulation plays a huge role in countering the above-mentioned shortcomings. Multiple simulation frameworks exist, such as PyBullet, CoppeliaSim, Webots, Polyscope and other Visual Programming Interfaces (VPLs), that allow companies and researchers to model and test robot behavior before deployment. This project aims to explore and evaluate popular simulation tools from a usability and applicability perspective. ================================= Learning Objectives: - Understand the significance of simulation in HRC. - Gain familiarity with basic use cases and interfaces of simulation tools. - Develop evaluation criteria suited for different needs (research/SMEs/Industry/training/planning).
Verfügbar für:
Informatik (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Maria Leitner
The semiconductor industry faces several challenges such as knowledge-intensive manufacturing and supply chains which complicates planning within the industry. To overcome these challenges and create efficient, sustainable, and resilient semiconductor supply chains, it is vital to facilitate seamless information exchange within supply chains. To ensure the success of this exchange, standardized models, a common vocabulary with clear definitions, and a detailed model of semiconductor supply chains are essential prerequisites. An example is the IFX Digital Reference, which is an open sourced, Semantic Web-based holistic model for semiconductor and supply chains containing semiconductors. The Asset Administration Shell (AAS) and the Eclipse Dataspace Connector (EDC) are crucial data models in facilitating secure, trusted, and sovereign data exchange between industrial partners. By utilizing AAS, companies can create a digital twin of their assets, providing a standardized and interoperable representation of their data, while EDC enables the secure and controlled exchange of this data between partners. To set up this data exchange, companies need to establish a clear understanding of the data to be shared and the corresponding access & usage rights, followed by the creation of a digital twin of their assets using AAS and implement EDC connection. This thesis can be combined with an internship at Infineon. References ========== https://industrialdigitaltwin.org/en/ https://github.com/eclipse-edc