arbeitskreise:evaluation:protokoll_kiel2024
Inhaltsverzeichnis
Evaluation
95. BuFaTa an der CAU zu Kiel | ||||
---|---|---|---|---|
Datum | Beginn | Ende | Sitzungsleitung | Protokollierung |
31.10.2024 | 11:00 Uhr | 13:00 Uhr | Christian (HS MA) | Caleb (TU Darmstadt) |
Anwesende: Katharina Schönberger (HS München), Elias Kleimeier (HS München), Christian (HS MA), Niloy (HAW Hamburg), Caleb (TU Darmstadt), Tobias Seifert (HS Koblenz), Dennis F (FH Dortmund), Manuel Buchfink (Uni Stuttgart)
Vorgehen
- Austausch AK
- Diskussion über folgende Fragen:
- Welche Arten von Evaluationen/Umfragen werden gemacht?
- Wie umfassend werden die Evaluationen gemacht?
- Von wem werden die Evaluationen gestellt?
- Wann werden die Evaluationen durchgeführt?
- Wer hat Zugriff auf die Ergebnisse? (FS?, StuRa?, etc.)
- Habt ihr Evaluationen schon einmal „wirken“ sehen?
- Wie ist eure Diskussionkultur bzgl. Vorlesungen/Dozenten gegenüber der FS?
- Diskussion:
- „Was kann man mit Evaluationen erreichen?“
- „Wie können wir als FS zu guter Evaluationskultur beitragen?“
Ergebnisse
Diskussion: Aktueller Stand Evaluationen
HS München
- Zentrales Evaluationstool
- Die meisten Profs nutzen es
- Ca 5 Fragen (ja/nein)
- Zyklus: Im Regelfall jährlich, kann häufiger oder seltener sein
- Problemprofs führen das eher seltener durch
- Kann eingefordert werden
- Einsehbarkeit nach Prof ermessen
- Trendansicht für Studiendekan oder auf Anfrage
- Teilnahme eher gering
- Keine Zentrale Einordnung, da Freiheit der Lehre
HAW Hamburg
- zentrale Stelle
- QR Code zum evaluieren, damit hohe Teilnahme
- Gesplittet in Zustimmung und keine Zustimmung. Zusätzlich Freitext. Keine Transparenz, weder welche Antworten sieht.
- Grundgedanke: Feedback für Dozent*innen
- Engagierte Profs holen ihr Feedback bereits in der Vorlesung selbst, andere Profs nehmen das nicht Ernst
- Keine Möglichkeit die Ergebnisse einzusehen
- Evaluation kurz vor der Klausur, kann die Klausur beeinflussen
- Mindestanzahl von ca. 5, um überhaupt die Evaluation auszuwerten
TU Darmstadt
- Digital per QR Code
- Zeitraum ist auf 2 Wochen begrenzt
- Vorlesung, Übung, Praktikum, Seminar werden einzeln evaluiert (auch wenn es 1 Modul von gleichen Lehrenden ist)
- Hochschuldidaktische Arbeitstelle erstellt zentral anonyme Umfragen (Dekanat bestimmt Fragen)
- In der Regel 45 Fragen, und 2 Freitextfragen
- Teilnahme durch zu viele Fragen etwas geringer
- Pflicht für alle Lehrveranstaltungen über 30 Teilnehmern
- Auswertung durch Graphen und allen Anmerkungen der Freitextfelder untereinander für die Professoren
- Studierende erhalten Zusammenfassungen der einzelnen Evaluationskategorien (Anspruch, Präsentation, Stil, Didaktik, Gesamt)
- Ergebnis der Evaluation in einer Kategorie schlechter als 3,0 → Gespräch mit Dekanat (funktioniert ok)
HS Koblenz
- Evalusierungssystem des von mehreren Hochschulen genutzt wird: Hochschulevalisierungsbund Südwest e.V.
- Ergebnisse nur für Lehrenden
- Dekanat hat nicht unbedingt Einsicht
- Evaluation wird auch nicht besprochen
- Erhebung gut: 50 - 70 % Teilnahme
- Mindestanzahl von ca. 5, um überhaupt die Evaluation auszuwerten
Uni Stuttgart
- Anonymes Feld für Problemfälle in der Vorlesung (wird nicht an die Lehrende Person sondern an unabhängige ausgespielt)
- Auswertung freiwillig in Lehrveranstaltung
- Auswertung kann angefragt werden
- Es gibt einen Preis mit 10.000€ für die beste Lehre (über die komplette Lehre)
FH Dortmund
- Zentral gestellt
- Einmal nach 6 Wochen Lehrveranstaltung
- Klausur nicht berücksichtigt
- Keine Auswertung bei weniger als 5 Teilnehmer
- Wird über Zentrales Tool zur Verfügung gestellt
- Ca x Fragen und Freitextfeld für alle Module
- Auswertung kann angefragt werden, manche Profs laden Ergebnisse ins E-Learning-Portal hoch
- Erfahrungsgemäß viel Wirkung bei neuen Professoren, wenig Änderung bei Professoren, die länger dabei sind und als problematisch gelten
- Zukünftig: 2 mal Evaluieren? (Lehrveranstaltung und nach Klausur)
- Nach schlechten Klausuren führt die Fachschaft eigenständig Umfragen durch und geht mit den Ergebnissen ins Gespräch
HS Mannheim
- Gegen Ende des Semesters, vor den Klausuren
- Umfrage in Moodle (I.d.R.):
- ~7? Fragen mit Bewertung von 'meh' bis 'sehr gut'
- Häufig noch ein paar Freitextfelder für Vorschläge
- Macht jeder Dozent aber auch anders
- Nicht jede Antwort wird gleich verarbeitet
- Frage „Wie viel Zeitaufwand?“ geht wohl direkt an Prüfungsamt oder so
- Andere Fragen bleiben nur bei Dozenten
- (Meines Wissens nach) FS bisher kein Zugriff auf Ergebnisse
- Meinungsbild letze FS Sitzung
- Ingesamt: Unzufrieden
- Immer knapp vor den Prüfungen
- Oft unterschwellig „Bewertet die Vorlesung gut, sonst…“
- Sorge, dass Profs sich für Bewertungen in Prüfungen rechen
- Teilweise so gemacht, dass man nur „gut“ antworten kann
- Aushändigung der Altklausuren wohl vereinzelt nur nach Ausfüllen der Umfrage
- Keine Info von Dozenten, dass Umfragen offen
DHBW Mannheim
- Nach Klausuren kommt Stapel an Mails
- Evaluation wird von Studiengangsleitung gestellt
- Zu jeder Vorlesung kommt eine Umfrage (Außer Studiengangsleitung findet die Vorlesung nicht „wichtig“ genug)
- Umfragen sehr umfassend
- Zeitaufwand jeweils schon >20 min
- ~40 Fragen
- Tiefgehende Sachen wie:
- Welche Lehrmodelle wurden verwendet?
- Wie gut wurden die umgesetzt?
Allgemeine Trends
- Stark abhängig davon, wie die Profs auf Evaluation eingestellt sind
- Von oben wohl häufig recht wenig „Einflussnahme“
- Teile der Umfragen werden an andere Stellen weitergegeben
- Zeitpunkt: Wann ist Feedback am besten?
- Vor oder Nach der Klausur?
- Vermutlich am besten nach der Klausur vor den Ergebnissen
- Vor der Klausur: Dozent kann noch was ändern
- Nach der Klausur: Frust aus der Klausur kann auf schlechte Weise im Feedback landen
- Zeitabfragungen in der Evaluation
- wird zum Teil für Abgleich mit CP genutzt
- ist am Anfang der Semesters kaum abschätzbar
- unserer Meinung nach kaum als sinnvolle Kenngröße verwendbar
- Kommunikation: Wofür wird die Evaluation genutzt?
Diskussion: Gibt es bei euch noch andere Evaluation (z.B. von der Fachschaft\Studiwerk)?
- CHE-Rankings
- FH Dortmund: Umfragen nach (schlechten) Klausuren, Preis besten Lehrenden wird mit (unrepräsentativer) Umfrage begründet
- TU Darmstadt: allgemeine Studienbefragung alle 2 Jahre
- HAW Hamburg: Gesundheitsbefragung (CampPuls), soll in 4 Jahren erneut stattfinden, Ergebnisse werden anscheinend nicht ernstgenommen (ca. 50% Studierende mit Auffälligkeiten in Richtung Depressionen, Angststörungen), keine Maßnahmen)
Diskussion: Was mit Evaluationen erreichen?
- Durch die Evaluation wurden bereits zusätzliche Angebote geschaffen
- Argumente für Änderungen an Lehrveranstaltungen sammeln (auch über Lehrveranstaltungsevaluation hinaus z.b Gesundheitsthemen)
- Objektives Feedback für Lehrveranstaltungen (Diskussiongrundlage)
- Möglichkeit für alle Studierende (anonym) Feedback zu geben, das sonst verloren ginge
- Möglichkeit für Lehrende ihre Veranstaltung zu verbessern, Feedback für (gute) Lehrveranstaltungen zu erhalten
Diskussion: Zu guter Evaluationskultur beitragen?
- Eigene Umfragen gestalten
- Feedback zu den gestellten Fragen geben
- Erklären warum die Evaluation gestellt wird und wo die Fragen herkommt
- Werbung für die Evaluation machen
- Evaluation zusammen mit den Profs ausarbeiten
- Gespräch mit Dozenten suchen (auch für positive Themen)
Ende
Beginn: 11:00 Uhr
Ende: 13:00 Uhr
Kontinuierliches Thema. Sollte in 1 Jahr als Austausch-AK wiederholt werden.
Die hier im BuFaTa ET Wiki dargestellten Arbeitsdokumente sind Einzelbeiträge der jeweiligen Autoren und i.d.R. nicht repräsentativ für die BuFaTa ET als Organisation. Veröffentlichte Beschlüsse und Stellungnahmen der BuFaTa ET befinden sich ausschließlich auf der offiziellen Homepage.
arbeitskreise/evaluation/protokoll_kiel2024.txt · Zuletzt geändert: 03.11.2024 12:39 von Christian Klein