BuFaTa ET Wiki

Das Wiki der Bundesfachschaftentagung Elektrotechnik

Benutzer-Werkzeuge

Webseiten-Werkzeuge


arbeitskreise:technikfolgenabschaetzung:protokoll_aachen2026_2

Dies ist eine alte Version des Dokuments!


KI und gesellschaftliche Auswirkungen

98. BuFaTa an der RWTH Aachen
Datum Beginn Ende Sitzungsleitung Protokollierung
14.05.2026 11:00 13:30 Fabian (HS München) Alle

Anwesende: Fabian (HS München),Peter (HS München),Fabian (TU Darmstadt), Finn (KIT), Nele (KIT), JP (KIT Alumi), Samuel (TU Darmstadt), Vincent (TU Darmstadt), Adrian (TU Ilmenau), Sinom (RPTU Kaiserslautern), Andrea (RPTU Kaiserslautern), Markus Dippel (RPTU Kaiserslautern), Kardelen(TH Nürnberg), Cyryl (TH Nürnberg),Christoph (TH Nürnberg), Karla (TU Dresden), Armin (TU Dresden), Lennard (CAU Kiel)

Einführung

KI ist inzwischen in der Gesellschaft angekommen. Im vorherigen AK wurden die KI-Richtlinien der verschiedenen Hochschulen gesammelt. Jetzt ist die Frage, ob Hochschulen auch ethischen Umgang mit KI vermitteln. Falls im vorherigen AK noch nicht passiert, analysiert die gesammelten Richtlinien und erweitert eure Suche potenziell auf Modulhandbücher einzelner Hochschulen.

Ziel des AKs ist es, einige Best-Practice Module bzw. Richtlinien zu finden, diese können dann zurück zu den eigenen Hochschulen genommen werden. Bei fehlender Zeit fokussiert euch auf weniger Richtlinien und vergleicht diese.

Bestehende Module und Richtlinien

= KIT =

  • KI-Handreichung fast KIT weit
  • Richtlinie zum angeben von LLM-Nutzung in Abschlussarbeiten, Seminararbeiten etc.
  • Neuer Studiengang: Robotics and embeded AI
  • Technikethik als überfachliche Qualifikation im Bachelor

= RPTU Kaiserslautern =

  • Olat KI Kompas und Ersti Veranstaltung als KI Kompass, soll evtl langfristig Zertifikatskurs werden, der ECTS gibt
  • Anfrag an Professoren für Eigene Lokale KI für Studenten, trainiert mit Altklausuren und Vorlesungs Materialien um Antworten zu verbessern.

= TU Dresden =

  • von Fakultät zu Fakultät unterschiedlich,keine uniweite einheitliche Richtlinien
  • grobe Guidelines wie man Text-generating-AI-Systems nutzen soll
  • Eigens trainierte KI Model von Dozent als unterstützung bei Übungen und Klausurvorbereitung
  • Workshops zur KI-Nutzung im akademischen Schreiben

= HS München =

  • Eigene KI
  • Nur unterstützend für die Lehre
  • OneTutor in der Pilotphase
  • Von der Hochschule finanzierter Zugang zu Chat-GPT

=TU Darmstadt=

  • es gibt eine Handreichung, in der über aufgezeigt wird, wie KI im Studium und in der Lehre verwendet werden kann
  • keine spezifischen Module die den Umgang mit KI behandeln
  • für studentische Arbeiten wird ein Leitfaden ausgegeben, der darüber informiert wie die Nutzung von KI gekennzeichnet werden soll
  • es gibt ein LLM was eigens von der Uni gehostet wird

Identifikation von Soll-Themen

= Gruppe 3 =

  • Professoren oder generell Lehrende Personen sollen nicht den Eindruck vermitteln alles kann mit „KI“ gelöst werden → „nicht Lehrauftrag an ChatGPT abgeben“
  • Workshops, Seminare für Nutzung von KI/ Einordnen eigentliche Funktion von KI (als Werkzeug, nicht als Ersatz)
  • Problem: übermäßige Nutzung von KI führt zu Eigenständigkeitsverlust, hohem Energieverbrauch und großen Kosten
  • Chance/ Möglichkeiten/ Gewinn/ Perspektive/ Kapaziäten: Triviale/ repititive Aufgaben erledigen
  • Leute hören den „Schuss“ nicht
  • Risiken beleuchten, Open Source Software nahelegen, Datenschutz, AI-Blase platzt (wann?),Gefahr: Selbstverständlichkeit führt zur „Auslagerung“ von Wissen und damit Abhängigkeit
  • Literaturempfehlungen
  • Jüngere Leute haben durch Homeschooling und Corona eher die Tendenz LLMs zu nutzen

= Gruppe 1 =

  • Durch schnelle innovation ist die Lehre immer direkt veraltet, wenn möglich eigene angepasste von der UNI/Hochschule gestellte LLMs.
  • Erstsemester haben keine Basics durch „faule“ KI Nutzung. Aufklärung am Anfang und die richtige Nutzung soll gelehrt werden.
  • Bereitstellung von Servern mit Rechenleistung für Nutzung von LLMs in der Forschung.
  • LLMs sollen wenn möglich mit grüner Energie betrieben werden.

=Gruppe 2=

  • Möglichkeiten
    • kooperatives Lernen, generieren von zusätzlichen Lernmaterialen, Gegenprüfen von eigenen Lösungen
  • Grenzen
    • Ergebnisse werden haluziniert, KI hängt sich in Loops auf
  • Probleme
    • Urheberrecht bei Dokumenten, Welche Daten können/können nicht geteilt werden
    • Bias der Antworten durch die Art wie gepromptet wird

= Gruppe 5 =

  • Datenschutz ist ein großes Problem wegen persönlichen Daten, Forschungsergebnissen, Urheberrechtlichgeschützen Dokumenten. Lösung local hostet, performance meistens schlechter.
  • Auch die Verletzung von Urheberrecht ist problematisch, gerade bei kleineren Autoren
  • Wir identifizieren das Problem der sozialen Isolation
  • KI != KI, LLM sind nicht alless, auch optimierung
  • KI kann bessere Lehre als manche Profs

Ausarbeitung der einzelnen Soll-Themen

= Punkte für eine mögliche Einleitung: =

  • Professoren oder generell Lehrende Personen sollen nicht den Eindruck vermitteln alles kann mit „KI“ gelöst werden → „nicht Lehrauftrag an ChatGPT abgeben“
  • Problem: übermäßige Nutzung von KI führt zu Eigenständigkeitsverlust, hohem Energieverbrauch und großen Kosten

= Angebote die sich von den Fakultäten gewünscht werden: =

  • Workshops, Seminare für Nutzung von KI/ Einordnen eigentliche Funktion von KI (als Werkzeug, nicht als Ersatz)
    • Mögliche Inhalte:
      • Risiken beleuchten, Open Source Software nahelegen, Datenschutz, AI-Blase platzt,Gefahr: Selbstverständlichkeit führt zur „Auslagerung“ von Wissen und damit Abhängigkeit
      • Urheberrecht bei Dokumenten, Welche Daten können/können nicht geteilt werden
      • Datenschutz
      • Ein einheitliches System zur Nutzung von Ki`s
      • Anwendung von KI im jeweiligen Studienfeld

Ausarbeitung zu der Einleitung einer möglichen Stellungnahme bzw. Empfehlung

Künstliche Intelligenz ist längst Teil des Hochschulalltags. Ob bei Recherche, Klausurvorbereitung oder wissenschaftlichem Schreiben KI-Systeme,insbesondere Large Language Modelle (LLM), werden zunehmend selbstverständlich genutzt. Gleichzeitig fehlen oft klare Richtlinien und eine kritische Auseinandersetzung mit den Folgen dieser Entwicklung. KI bietet große Chancen für Lehre und Forschung, birgt allerdings auch Risiken. Während sie Lernen und Arbeiten erleichtern kann, besteht zugleich die Gefahr, eigenständiges Denken und grundlegende Kompetenzen zunehmend auszulagern. Hinzu kommen Fragen zu Datenschutz, Urheberrecht und der Abhängigkeit von kommerziellen Anbietern. Hochschulen stehen deshalb vor der Aufgabe, nicht nur den Einsatz von KI zu ermöglichen, sondern auch ein Verständnis für den kritischen Umgang damit zu vermitteln. - chatgpt

Künstliche Intelligenz ist längst Teil des Hochschulalltags. Ob bei Recherche, Klausurvorbereitung oder wissenschaftlichem Schreiben – KI-Systeme, insbesondere Large Language Modelle (LLM), werden zunehmend selbstverständlich genutzt. Gleichzeitig fehlen oft klare Richtlinien und eine kritische Auseinandersetzung mit den Folgen dieser Entwicklung. KI bietet große Chancen für Lehre und Forschung, birgt allerdings auch erhebliche Risiken. Während sie Lernen und Arbeiten erleichtern kann, besteht zugleich die Gefahr, eigenständiges Denken und grundlegende Kompetenzen zunehmend auszulagern. Eine übermäßige Nutzung von KI-Systemen gefährdet nicht nur die intellektuelle Selbstständigkeit der Studierenden, sondern geht auch mit hohem Energieverbrauch und erheblichen Kosten einher – Aspekte, die in der gesellschaftlichen Debatte oft zu wenig Beachtung finden. Hinzu kommen Fragen zu Datenschutz, Urheberrecht und der Abhängigkeit von kommerziellen Anbietern. Eine besondere Verantwortung tragen dabei die Lehrenden: Professorinnen und Professoren sowie alle anderen in der Lehre tätigen Personen sollten nicht den Eindruck vermitteln, dass KI-Werkzeuge für jede Aufgabe die richtige Antwort seien. Der Lehrauftrag darf nicht an ChatGPT oder ähnliche Systeme delegiert werden – weder implizit durch unkritische Empfehlungen noch durch das Fehlen alternativer Methoden im Lehralltag. Hochschulen stehen deshalb vor der Aufgabe, nicht nur den Einsatz von KI zu ermöglichen, sondern auch einen verantwortungsvollen Umgang damit zu vermitteln. Ziel dieses Arbeitskreises ist es, die bisher bestehenden Konzepte kritisch zu vergleichen und Best-Practice-Beispiele für den universitären Einsatz zu erarbeiten. - claude.ai

Ausarbeitung zu dem Workshop- / Seminar- / Erstiveranstaltungsinhalt

= Gruppe 1 =

  • evtl. als Studium Generale Modul ⇒ ECTS Punkte
  • oder als Modul in den Einführungswochen
  • Mögliche Inhalte:
    • Wie funktioniert ein LLM?
    • Anwendungen von verschiedenen LMM-Tools
    • How-To Promt-Erstellung
    • Grenzen von Tools, typische Fehler, wie entsteht Halluzination
    • Ethische Komplikationen
    • Datenschutz Probleme

=Gruppe 2=

  • workshop muss aktuell gehalten werden und mit der Entwicklung mitgehen
  • Inhalte
    • Wie erkenne ich mit KI erstellte Beiträge (welche Marker gibt es?)
    • Welche Grenzen gibt, was geht, was geht nicht
    • Was muss bzgl. Datenschutz beachtet werden
    • Wie können die produzierten Ergebnisse gegengeprüft werden
    • Grundlagen vermitteln: Wie funktionieren Modelle? Wie werden die Ergebnisse produziert (Arbeit mit Wahrscheinlichkeiten)
    • Wie kann KI sinnvoll im Studienalltag verwendet werden
    • Wie prompted man richtig

Empfehlung für folgenden AK

Ausblick auf nächstes AK

  • Beratung wie man Urheberrecht den Studenten vermittelt, z.B. Upload von Lernmaterial in LLMs.
    • Workshop?
    • Lehrveranstalltung?
    • Erstsemester veranstaltung?
    • Den Profs Überlassen?
    • LLMs der Uni?

Ende

Beginn: 11:00 Uhr
Ende: 13:30 Uhr
Der AK ist nicht fertig und sollte auf weiteren Tagungen besprochen werden. Erste Inhalte, welche den Studierenden vermittelt und Hochschulen empfohlen werden sollen, wurden erarbeitet. Ein folgender AK kann als Arbeits-AK die Inhalte weiter ausbauen und -formulieren, um eine finale Best-Practice Empfehlung zu erstellen.



Die hier im BuFaTa ET Wiki dargestellten Arbeitsdokumente sind Einzelbeiträge der jeweiligen Autoren und i.d.R. nicht repräsentativ für die BuFaTa ET als Organisation. Veröffentlichte Beschlüsse und Stellungnahmen der BuFaTa ET befinden sich ausschließlich auf der offiziellen Homepage.
arbeitskreise/technikfolgenabschaetzung/protokoll_aachen2026_2.1778757701.txt.gz · Zuletzt geändert: 14.05.2026 11:21 von Fabian Brenneisen