Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Bernd Heinrich , Michael Hagn
Convolutional Neural Networks (CNNs) werden heute schon sehr erfolgreich zur Klassifikation von Bildern genutzt Aufgrund ihrer Komplexität sind CNNs jedoch sogenannte „Black Box“-Modelle, weswegen Nutzer die Gründe für eine Klassenzuordnung nicht nachvollziehen können Es existieren jedoch Verfahren des Lehrstuhls für Wirtschaftsinformatik II, um die exakten Entscheidungsgrenzen von CNNs bestimmen zu können, welche zur Erklärung der Modelle und Klassenzuordnung genutzt werden können Aufgabenstellung Bestimmung und Visualisierung der Entscheidungsgrenzen von einfachen CNNs Ideengenerierung und Erstellung von Erklärungen der Klassenzuordnung des CNNs für Bilder auf Grundlage der Entscheidungsgrenzen Empfohlen Interesse an Machine Learning und Spaß an Programmierung mit Python Betreuung Michael Hagn & Bernd Heinrich
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Paul Miethaner , Thomas Krapf
Machine Learning-Verfahren, insbesondere SVMs mit komplexen Kernelfunktionen und tiefe Neuronale Netze sind oft in der Lage herausragende Ergebnisse bei Klassifikationsaufgaben zu erzielen. Allerdings wäre es aus Effizienz- und Interpretierbarkeitsgründen besser, wenn einfachere Modelle dieselbe Klassifikationsleistung erreichen würden. Daher versucht man mit Hilfe von Knowledge Distillation das „Wissen“ eines komplexeren Modells an ein simpleres Modell „weiterzugeben“. Dafür gibt es viele aktuelle Ansätze aus der Forschung, welche sich für verschiedene Modelle und reale Situationen eignen. Aufgabenstellung Kurze strukturierte Literatursuche aktueller vorimplementierter Ansätze Vergleich der Methoden in Python in Bezug auf Performance und Modelltypen Betreuung Paul Miethaner und Thomas Krapf
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Paul Miethaner , Thomas Krapf
Maschinelle Lernverfahren gewinnen stark an Relevanz und übernehmen zunehmend Aufgaben in IT und Wirtschaft. Gleichzeitig sind die Verfahren aufgrund ihrer Komplexität und ihres Black Box-Charakters oft nicht transparent und deren Entscheidungen nicht nachvollziehbar. Daher wurde am Lehrstuhl eine neue Explainable Artificial Intelligence (XAI) Methode entwickelt, das die Entscheidungsgrenzen eines Machine Learning Modells visualisiert. Aufgabenstellung Konzeption neuer Funktionalitäten des Tools, welche die Analyse, Visualisierung und Interpretation der Entscheidungen maschineller Lernverfahren ermöglichen Implementierung dieser Funktionalitäten in der bestehenden Code-Basis in Python. Empfohlen Interesse und Spaß an AI / Programmierung und Visualisierung Betreuung Paul Miethaner und Thomas Krapf
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Daniel Konadl
Bestandteile: Vorstellung des Themas, Motivation und Zielsetzung der Arbeit. Theoretische Einordnung: Chatbots, Ernährungsberatung, Bedeutung gesunder Ernährung, etc. Systematische und strukturierte Aufarbeitung der einschlägigen Literatur: Identifikation und Analyse von Literatur zu Chatbots im Bereich der Ernährungsgesundheit und -beratung. Strukturierte Aufarbeitung nach Funktionalitäten und unterstützten Bereichen in der Ernährungsberatung. Identifikation von Lücken: Unter anderem durch eine Zuordnung der von Chatbots leistbaren Funktionen zu den Aufgaben, welche in der Ernährungsberatung für gewöhnlich von Menschen ausgeführt werden. Herausarbeitung von Potenzialen und Herausforderungen für Chatbots in der Ernährungsberatung. Konsolidierung der Ergebnisse und Übertragung von u.a. wichtigen Funktionalitäten aus der Ernährungsberatung auf spezifischere Anwendungsgebiete mit Bezügen zu gesunder Ernährung (z.B. Darmgesundheit) Diskussion, Schlussbetrachtung und kritische Würdigung der Arbeit Voraussetzungen: Interesse an literaturbasierter Arbeit und an den Themenbereichen Ernährung und Chatbots Einstiegsliteratur: Vom Brocke, J., Simons, A., Riemer, K., Niehaves, B., Plattfaut, R., und Cleven, A. (2015). Standing on the shoulders of giants: Challenges and recommendations of literature search in information systems research. Communications of the Association for Information Systems, 37(1). Mayring, P. (2004). Qualitative content analysis. A Companion to Qualitative Research, 1(2), 159-176. Yang, Z., Khatibi, E., Nagesh, N., und Azimi, I. (2024). ChatDiet: Empowering Personalized Nutrition-Oriented Food Recommender Chatbots through an LLM-Augmented Framework. Smart Health, 32.
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Janik Wörner
Diese Bachelorarbeit untersucht die Einsatzpotenziale von Gen AI Tools vor dem Hintergrund der Unterstützung in Supportprozessen. Ziel ist es, eine fundierte Analyse der am Markt verfügbaren Technologien sowie der relevanten wissenschaftlichen Literatur durchzuführen, um Chancen, Herausforderungen und mögliche Anwendungsbereiche zur Unterstützung von Supportprozessen durch generative KI zu identifizieren. Bestandteile Einleitung: Vorstellung des Themas, Motivation und Zielsetzung der Arbeit. Theoretische Einordnung: Generative AI, (Support-)Prozesse, … HR / Verwaltung / … Literatursuche / -analyse: Identifikation bestehender Gen AI Ansätze/Tools (Lit. / Markt ) sowie deren Potenziale und Herausforderungen in Bezug auf die Unterstützung in Supportprozessen. Identifikation von Erfolgsfaktoren für den erfolgreichen Einsatz von Gen AI Tools (z. B. Vertrauenswürdigkeit, …). Bewertung der identifizierten Ansätze anhand der Erfolgsfaktoren. Diskussion der Ergebnisse und Schluss Voraussetzungen: Interesse an literaturbasierter Arbeit und der praktischen Anwendung von Generativer KI. Einstiegsliteratur: Budhwar, P., Chowdhury, S., Wood, G., Aguinis, H., Bamber, G. J., Beltran, J. R., ... & Varma, A. (2023). Human resource management in the age of generative artificial intelligence: Perspectives and research directions on ChatGPT. Human Resource Management Journal, 33(3), 606-659.
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Isabel Reuter
Ein Überblick über Reifegradmodelle für generativer KI identifiziert zentrale Dimensionen, Stufen und Bewertungskriterien. Ziel ist es, daraus ein Reifegradmodell zu entwickeln, das es Anwendern ermöglicht, den Entwicklungsstand von generativer KI systematisch zu erfassen und gezielt zu verbessern. Bestandteile: Einleitung + Grundlagen ( Begriff Generative KI + Begriff und Aufbau von Reifegradmodellen) Systematische Literaturübersicht: Überblick und Analyse grundlegender wissenschaftlicher Literatur zu Reifegradmodellen + Literatur zu generativen KI-Reifegradmodellen Auswertung der Modelle: Vergleichsanalyse (Wie sollte allgemein ein Reifegradmodell gestaltet sein vs. vorhandene Reifegradmodelle zu generativer KI), Gemeinsamkeiten und Unterschiede Ableitung eines konsolidierten Reifegradmodells für generative KI: Clusterbildung ähnlicher Konzepte; Definition der Reifegradstufen; Kriterien pro Stufe (z. B. „Initial“, „Definiert“, „Optimiert“); Festlegung von Indikatoren/ Metriken für jede Dimension Diskussion, Fazit Voraussetzungen: Interesse an literaturbasierter Arbeit und Reifegradmodellen zu generativer KI Einstiegsliteratur: Lasrado, L.A., Vatrapu, R., & Andersen, K.N. (2015). Maturity Models Development in IS Research: A Literature Review. Knackstedt, R., Pöppelbuß, J., & Becker, J. (2009). Vorgehensmodell zur Entwicklung von Reifegradmodellen. Wirtschaftsinformatik.
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Marc Roßberger
Instant-Messenger sind ein grundlegender Teil unseres digitalen Alltags geworden und das menschliche Kommunikationsverhalten in diesen ist von großem Interesse. Zwar gibt es echte Datensätze, welche Einblicke in das Kommunikationsverhalten von Menschen in diesen Apps geben, jedoch sind diese mit mehreren Problemen verbunden. So sind es meist nur beschränkte anonymisierte Datensätze, wodurch mögliche Rückschlüsse stark eingeschränkt werden und in der Wissenschaft oft mit vereinfachten statistischen Modellen gearbeitet wird. In dieser Arbeit sollen deswegen mithilfe von KI beschränkte reale Datensätze (z.B. [1, 2]) ausgeweitet werden. Dabei müssen die Daten evtl. bereinigt und in ein für die KI angepasstes Format gebracht werden. Es können mehrere Modelle für die Erzeugung der künstlichen Daten genutzt werden. Um abschließend evaluieren zu können, wie realistisch diese künstlichen Daten sind, müssen entsprechende Metriken definiert werden, welche beurteilen, wie nah sie an originalen Daten sind. [1] https://ieeexplore.ieee.org/abstract/document/10064263 [2] https://ojs.aaai.org/index.php/ICWSM/article/view/14989
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Maximilian Wittig
Browser-Fingerprinting ist eine probabilistische Technik, um Browser webseitenübergreifend zu re-identifizieren. Dabei werden zahlreiche Attribute eines Browsers als Quasi-Identifier genutzt, die in Kombination eine nahezu einzigartige Erkennung einer Browser-Instanz ermöglichen. Neben der Einzigartigkeit ist auch die Stabilität eines Fingerprints entscheidend – der Fingerprint sollte möglichst über einen längeren Zeitraum gültig bleiben und sich beispielsweise nicht durch ein einfaches Update ändern. Mit dem schrittweisen Ausstieg aus der Nutzung von Third-Party-Cookies rückt das Browser-Fingerprinting zunehmend in den Fokus, da es weiterhin eine Möglichkeit bietet, Nutzer webseitenübergreifend zu identifizieren und deren Online-Aktivitäten zu verfolgen. Privatsphärefreundliche Browser haben daher gezielte Schutzmechanismen implementiert, um Fingerprinting zu verhindern oder zumindest die Einzigartigkeit der Fingerprints zu reduzieren. Ziel dieser Abschlussarbeit ist es, diese Schutzmechanismen praktisch zu analysieren und zu bewerten. Dazu sollen open-source Fingerprinting-Libraries hinsichtlich der Stabilität und Einzigartigkeit der generierten Fingerprints getestet werden. Ein möglicher Startpunkt ist die Library FingerprintJS. Mögliche Forschungsfragen: 1. Welche open-source Fingerprinting-Libraries sind derzeit verfügbar und welche Browser-Attribute werden dabei typischerweise zur Erstellung es Fingerprints herangezogen? 2. Welche Schutzverfahren haben Browser praktisch implementiert, um Fingerprinting zu verhindern? 3. Wie können diese Schutzverfahren in einem Experiment auf Effektivität (Einzigartigkeit / Stabilität) getestet werden?
Verfügbar für:
Wirtschaftsinformatik (B) , Digital Business (B)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Iuliia Grebeshok
MAIN IDEA & RESEARCH QUESTIONS Robo-advisors have democratized investment management by using algorithms to provide automated portfolio advice, but they traditionally operate within predefined strategies. With advances in AI, next-generation advisors could evolve into autonomous agents capable of learning and adapting their strategies in real-time. This topic explores the transition from rule-based robo-advisors to self-learning investment agents, examining how greater autonomy might improve personalization and decision-making. The thesis aims to analyze the benefits and challenges of fully AI-driven investment advisory services. Key focuses include how autonomous AI advisors handle market dynamics, maintain client trust, and comply with financial regulations. It will also consider the necessary safeguards to ensure these agents act in investors’ best interests (e.g. risk management and oversight mechanisms). Possible research questions include, but are not limited to: How do AI-driven investment advisors differ from traditional robo-advisors in terms of decision-making and adaptability? What improvements in portfolio performance or efficiency might autonomous agents achieve, and what new risks (e.g., model errors or lack of transparency) do they introduce? How can user-specific factors (like risk tolerance and investment goals) be dynamically incorporated into an autonomous agent’s strategy? What regulatory and ethical considerations arise when human financial advisors are augmented or replaced by AI? How can trust in fully autonomous investment advisors be established and maintained among consumers? LITERATURE Ge, R., Zheng, Z. (Eric), Tian, X., & Liao, L. (2021). Human–Robot Interaction: When Investors Adjust the Usage of Robo-Advisors in Peer-to-Peer Lending. Information Systems Research. https://doi.org/10.1287/isre.2021.1009Capponi, A., Ólafsson, S., & Zariphopoulou, T. (2021). Kinniry, F., Jaconetti, C., Dijoseph, M., Walker, D., & Quinn, M. (2022). Putting a value on your value: Quantifying Vanguard Advisor’s Alpha®. https://corporate.vanguard.com/content/dam/corp/articles/pdf/putting_value_on_your_value_quantifying_vanguard_advisors_alpha.pdf Personalized Robo-Advising: Enhancing Investment Through Client Interaction. Management Science. https://doi.org/10.1287/mnsc.2021.4014
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Iuliia Grebeshok
MAIN IDEA & RESEARCH QUESTIONS Methods for interpreting outputs for Machine Learning Models aim to achieve greater transparency, reliability, trustworthiness, and fairness. One problem is that the interpretation methods themselves are often subject to uncertainties and only work well under certain conditions, which calls into question the actual objective of these methods. Two of the best known and most widely used methods for interpreting black-box ML algorithms are Local Interpretable Model-Agnostic Explanations (LIME) and Shapley Additive Explanations (SHAP) The goal of this topic is to critically scrutinize interpretable explainable AI methods based on the examples of LIME and SHAP. The theory and intuition of LIME should be introduced and critically examined. In addition, general pitfalls of using these methods should be analyzed and compared to other methods for interpretable machine learning. Examples of LIME and SHAP explanations may be demonstrated practically based on prototype implementations. Possible research questions include, but are not limited to: What are LIME and SHAP and what are are their theoretical foundations? What are general and specific pitfalls of using explainable AI methods? What are potential remedies or alternatives? What practical value doe explainability methods provide for actual use cases? How can these methods promote the human oversight of machine learning models? LITERATURE Ribeiro, M. T., Singh, S., & Guestrin, C. (2016, August). “Why should i trust you?” Explaining the predictions of any classifier. In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (pp. 1135-1144). Lundberg, S. M., & Lee, S. I. (2017). A Unified Approach to Interpreting Model Predictions. In Proceedings of the 31st Conference on Neural Information Processing Systems (pp. 4765-4774). Lipton, Z. C. (2018). The mythos of model interpretability: In machine learning, the concept of interpretability is both important and slippery. Queue, 16(3), 31-57.
Verfügbar für:
Wirtschaftsinformatik (B) , Digital Business (B)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Iuliia Grebeshok
MAIN IDEA & RESEARCH QUESTIONS Advances in AI and automation are reshaping the labor market, raising concerns about so-called “AI layoffs” – the displacement of workers driven by the adoption of AI technologies. While much of this adoption has been concentrated in digital and tech-intensive sectors, its ripple effects are becoming visible across the broader economy. This thesis explores how AI is affecting employment patterns, job quality, and skill demands. Rather than focusing solely on job losses, it examines both the direct effects (e.g., workforce reductions, task substitution) and indirect effects (e.g., task redesign, evolving skill requirements) of AI adoption. The aim is to understand the scope and nature of AI-induced labor market changes, drawing on empirical analysis of datasets such as those from the U.S. Bureau of Labor Statistics (BLS). Through this analysis, the thesis will assess to what extent recent advances – particularly in generative AI – are leading to task automation, job displacement, or job transformation. Findings will further inform debates on whether AI is broadly augmenting human work or predominantly automating it. Possible research questions include, but are not limited to: What evidence links recent AI adoption to workforce reductions, and which occupations are most affected? What is the extent to which AI substitutes for versus augments human labor? What are the short-term and long-term impacts of AI on employment levels and wage growth? How do “AI layoffs” compare to past automation waves in scope and speed? What policies can mitigate negative effects on workers and help distribute AI-driven productivity gains more equitably? LITERATURE Acemoglu, D., Autor, D. H., Hazell, J., & Restrepo, P. (2020). Ai and Jobs: Evidence from Online Vacancies. NBER Working Paper. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.3765910 Eloundou, T., Manning, S., Mishkin, P., & Rock, D. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models. ArXiv:2303.10130 [Cs, Econ, Q-Fin], 5(5). https://arxiv.org/abs/2303.10130 Frey, C. B., & Osborne, M. A. (2016). The future of employment: How susceptible are jobs to computerisation? Technological Forecasting and Social Change, 114, 254–280. https://doi.org/10.1016/j.techfore.2016.08.019
Verfügbar für:
Wirtschaftsinformatik (B) , BWL (B) , Digital Business (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Philipp Hartl
MAIN IDEA & RESEARCH QUESTIONS Data sharing for public good is a powerful tool to address societal challenges, especially in health, education, and social equity. However, concerns about privacy, regulatory requirements (e.g., GDPR, Digital Services Act), and perceived risks often deter participation in data-sharing initiatives. By combining behavioral nudges, regulatory alignment, and economic incentives, it is possible to promote data sharing while safeguarding privacy and fostering public trust. This bachelor thesis aims to provide a comprehensive understanding of the interplay between data sharing, privacy, regulation, and behavioral interventions. It focuses on identifying best practices for overcoming barriers and implementing effective strategies for fostering a culture of data sharing for societal benefit. Possible research questions include, but are not limited to: What are the main barriers to data sharing, and how can they be mitigated? How do privacy concerns and regulatory frameworks influence data-sharing practices? What role do behavioral nudges play in encouraging data sharing? How can economic incentives and regulations be aligned to promote socially beneficial data-sharing practices? LITERATURE Acquisti, A., Adjerid, I., Balebako, R., Brandimarte, L., Cranor, L. F., Komanduri, S., Leon, P. G., Sadeh, N., Schaub, F., Sleeper, M., Wang, Y., & Wilson, S. (2018). Nudges for privacy and security: Understanding and assisting users’ choices online. ACM Computing Surveys, 50(3), 1–41. https://doi.org/10.1145/3054926 Council of European Union & European Parliament. (2022). Regulation (EU) 2022/868 of the European Parliament and of the Council of 30 May 2022 on European data governance and amending Regulation (EU) 2018/1724 (Data Governance Act). Official Journal of the European Union, L 152, 1–44. Ioannou, A., Tussyadiah, I., Miller, G., Li, S., & Weick, M. (2021). Privacy nudges for disclosure of personal information: A systematic literature review and meta-analysis. PloS one, 16(8), e0256822. https://doi.org/10.1371/journal.pone.0256822
Verfügbar für:
Wirtschaftsinformatik (B) , Digital Business (B)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Andreas Schauer
MAIN IDEA & RESEARCH QUESTIONS Uncertainty Quantification (UQ) is a critical research area in ML aimed at assessing and communicating the uncertainty of model predictions. In credit scoring, where ML models are increasingly employed to evaluate the creditworthiness of individuals, understanding and visualizing uncertainty is essential for ensuring robust, fair, and transparent decision-making. Credit scoring tasks often involve high-stakes decisions, where errors can lead to significant financial or social consequences. By incorporating UQ with visualization techniques, practitioners can better understand model predictions, mitigate risks, and enhance trust. The goal of this practical seminar is to investigate and develop advanced visualization methods for representing uncertainty in credit scoring tasks. Participants will explore state-of-the-art uncertainty quantification techniques such as Bayesian neural networks, ensemble methods, or Monte Carlo dropout, and focus on creating innovative visualizations to communicate uncertainty to diverse audiences. These visualizations might include confidence intervals, probabilistic heatmaps, or interactive dashboards tailored to credit scoring datasets. Based on practical implementation, the seminar thesis should assess how visualization techniques can enhance interpretability, improve stakeholder understanding, and support better decision-making. Possible research questions include but are not limited to: What are the most effective methods for quantifying uncertainty in credit scoring models? What are the most effective visualization techniques for representing uncertainty in credit scoring tasks? How can uncertainty visualization be designed to communicate effectively with both technical and non-technical stakeholders? LITERATURE Hüllermeier, E., & Waegeman, W. (2021). Aleatoric and epistemic uncertainty in machine learning: An introduction to concepts and methods. Machine learning, 110(3), 457-506. Kamal, A., Dhakal, P., Javaid, A. Y., Devabhaktuni, V. K., Kaur, D., Zaientz, J., & Marinier, R. (2021). Recent advances and challenges in uncertainty visualization: a survey. Journal of Visualization, 24(5), 861-890.
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Leo Poss
Die fortschreitende Integration von Künstlicher Intelligenz in wissenschaftliche Arbeiten macht ihre Nutzung zwar nahezu unumgänglich, gleichzeitig erfordert dies jedoch eine sorgfältige und transparente Dokumentation. Im Zuge der Bachelorarbeit soll ein grober Überblick über aktuell verwendete Richtlinien und Informationen zur Verwendung von KI in schriftlichen Arbeiten an unterschiedlichen Universitäten (im deutschsprachigen Raum) erarbeitet werden. Im Anschluss soll ein Tool entwickelt werden, das eine einfache Einbindung der Dokumentation in eine Abschlussarbeit ermöglicht (Formular mit Umwandlung z.B. in Latex Tabelle): ähnlich zu https://web.psi.uni-bamberg.de/ki-policy-generator/v2.html oder https://ai-cards.org/.
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Daniel Oberhofer
Analysis of defensive cyber security playbooks and identification of so-called use cases. Playbooks are processes in the context of cyber security that are used, among other things, for the automated response to security incidents. Centralized security organizations publish these playbooks in the CACAO format. Since their content often overlaps significantly, it makes sense to identify categories of playbooks and model them as exemplary visualizations using BPMN. This Thesis does not require previous knowledge. Basics in cyber security might be beneficial.
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Daniel Oberhofer
Security Playbooks are structured processes in the context of cyber security, that are used to prepare against cyber attacks by providing an automatic response in case of emergency, but also define processes to strngthen the security of systems in advance. Such playbooks are delivered by organizations in the format of CACAO, which is a structure defintion especially in the context of playbooks. It involves, among others, descriptions of process steps and affected devices. This thesis requires collecting information about playbooks and the CACAO language, by analyzing a set of CACAO playbooks, identify a common structure and then developing a Parser, that visualizes Playbooks as a Petri-Net or BPMN. This thesis requires interest in software development in the context of cyber security. Programming is a central component, but basics in object-oriented programming are enough.
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (1 vergeben)
Betreuer:
Maria Leitner , Jayesh-Santosh Tawade
As collaborative robots (cobots) are increasingly integrated into industries such as manufacturing, logistics and research, the tools used to program and operate these robots are important for their efficiency, safety and flexibility. Universal Robots (UR) provides dedicated frameworks, namely, Polyscope 5 and Polyscope X, that serve as the underlying software for primarily controlling the cobots. These softwares, using a graphical user interface and scripting, can create and test programs that can run on the cobots directly. While both Polyscope 5 and Polyscope X aim to simplify robot programming and control, they differ in terms of functionalities, user experience, and technical capabilities. This thesis focuses on exploring and comparing the two software frameworks by investigating their different features. The key focus is on aspects such as ease of operation, task creation, flexibility, etc. for different use cases. This thesis is ideal for students interested in robotics and automation by offering hands-on experience in simulating real-world tasks. Learning Objectives: • Understand the concept and role of robot programming frameworks for collaborative robots • Gain practical experience with Polyscope 5 and Polyscope X (Robot programming) • Compare the features, usability and functionalities of both the frameworks • Learn how different frameworks support task development for industrial use cases • Provide a structured overview to guide future users in selecting the right programming environment
Verfügbar für:
Wirtschaftsinformatik (B) , Digital Business (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Maria Leitner
Background and Goals ==================== Cyber security exercises are events that enable participants to learn about cyber security attacks and incident response. The goal of this work is to systematically review current state of the art on diversity management in cyber security exercises or competitions and to identify potential strategies that can enable diversity in such competitions. Assignment of Tasks ==================== • Systematic literature review of diversity management • Development of a concept for diversity management in cyber security exercises • Identification of new or common strategies or success stories for diversity management • Preparation of main results
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Maria Leitner
Goal of the thesis is to implement at least 5 different visualizations that display the progress of cyber exercises. Motivation and Outline ================================ Cyber Exercises are still lacking visualizations for observers or participants. Often they are represented as scoreboards. However, cyber exercises would require better visualizations for showcasing the current progress. In the work, at least five visualizations are developed leveraging a modern programming language (e.g., JavaScript). At least two fictive data samples are generated that allow the testing of the visualizations.
Verfügbar für:
Wirtschaftsinformatik (B)
für 1 Teilnehmer (0 vergeben)
Betreuer:
Mathias Kraus
This thesis aims to find out how the performance of Traditional Machine Learning Models should be compared to each other on tabular data. With traditional models we refer to statistical learners, such as Linear (Logistic) Regression, Decision Trees, SVMs, and Random Forests. The thesis should show, which range of public datasets are suitable for assessing the performance and how to benchmark the models based on this range and variety of datasets. At least 12 Datasets should be benchmarked with varying feature counts and feature types (categorical, numerical). The student should apply a simple cross validation setup and find out how to evaluate the models in line with the goal of the statistical test, especially given statistical independence between the test scores. The idea of this paper is to find out which models perform with given statistical power better or worse than others, by comparing the performance of the regressors and/or classifiers against each other following prominent papers (Demšar, 2006). The project will be supervised by Nico Hambauer. Demšar, J. (2006). Statistical comparisons of classifiers over multiple data sets. Journal of Machine learning research, 7(Jan), 1-30.