Dieser Artikel wurde von Marlon Regener, Mitarbeiter am Zentrum virtUOS, für unsere Artikelreihe “Meinungen und Haltungen” verfasst.
Ein kleiner, dennoch essenzieller Hinweis an dieser Stelle: Dies ist ein subjektiver Bericht zu einem Workshop zum Thema “KI & Recht in der Hochschullehre”, der vermutlich lückenhaft ist und in keiner Weise eine Rechtsberatung darstellt. Für alle, die sich selbst ein Bild machen möchten: Die Aufzeichnung des Workshops steht hier zur Verfügung.
Seit der Veröffentlichung von ChatGPT 3.5 vor nun mehr über einem Jahr beschäftigen uns KI-Tools intensiv. Gerade die Frage nach der (rechtlichen) Zulassung und Verwendung von KI-Tools in der Lehre – und vor allem auch in Prüfungssituationen – stellt Lehrende wie Studierende noch vor einige Herausforderungen.
Aber der Reihe nach: Am 14. Dezember letzten Jahres fand – organisiert durch die virtuelle Hochschule Bayern (vhb) – eine Veranstaltung zum Thema KI & Recht in der Hochschullehre statt. Dabei sprach Ass. Jur. Alexander Besner-Lettenbauer von der TU München zunächst über die rechtliche Situation bei der Verwendung von KI-Tools in Hochschullehre und -prüfungen. Ihm zufolge gibt es seit der Veröffentlichung von ChatGPT im Grunde vier verschiedene Ansätze, wie Hochschulen auf das aufkeimende Interesse an KI-Systemen reagieren können:
- Den Einsatz schlichtweg verbieten oder
- ihn zähneknirschend dulden – was beides insbesondere das Problem der Chancengleichheit auf den Tisch bringt,
- den Einsatz bestimmter Tools erlauben oder aber – der eleganteste Ansatz –
- ihn zu gestalten und die Lehre und Prüfungssituation an die neuen Technologien anzupassen.
Für die Hochschulen birgt dieser Gestaltungsraum so einige Herausforderungen, die direkt mit einem größeren Problem starten: Wie gewährleistet eine Hochschule den Schutz der Daten ihrer Lehrenden und Studierenden? Spätestens bei einer (quasi) Verpflichtung, KI-Tools im Rahmen einer Veranstaltung oder Prüfung zu nutzen, wäre die Hochschule in der datenschutzrechtlichen Verantwortung. Problematisch ist nur, dass die Datenverarbeitung kommerzieller Anbieter kaum bis gar nicht kontrollierbar ist. Ein Ansatz wäre hier laut Besner-Lettenbauer die Verwendung von Lizenzen mit zusätzlich abgeschlossenem Auftragsverarbeitungs-Vertrag nach DSGVO. Andere Möglichkeiten finden sich in der Erschaffung hochschuleigener Anwendungen unter Verwendung der API (Entwicklerschnittstelle zur KI) oder die Verwendung von OpenSource Produkten auf eigener Hardware der Hochschulen, um ein geschlossenes System zu schaffen.
In diese Richtung geht übrigens auch die UOS: Mit StudiGPT steht bereits seit dem Wintersemester 2023/24 ein KI-basiertes Stud.IP-Plugin zur Verfügung, welches die API von ChatGPT nutzt (mehr Infos dazu finden Sie hier). Darüber hinaus wird am Zentrum virtUOS mit Hochdruck an einer datenschutzkonformen Chatbot-Anwendung für die Hochschulnutzung gearbeitet und pünktlich zum Sommersemester 2024 zur Verfügung gestellt.
Wie aber muss die Verwendung überhaupt geregelt werden? Müssen sich die Regeln zur Verwendung von KI-Tools wie ChatGPT in den Prüfungsordnungen wiederfinden? Nicht zwingend, sagt der Referent an dieser Stelle. An den allermeisten Hochschulen legt der*die Prüfende die zugelassenen Hilfsmittel fest.
ABER: Klare Regelungen zu einem so hochschulglobalen Thema schaffen Sicherheit für Studierende wie Lehrende und die – wie ich finde dringend notwendige – Basis für eine KI-unterstützte Lehre der Zukunft. Immerhin: Die Anwendung von KI-Tools in Lehre und Prüfung ist – gute wissenschaftliche Praxis vorausgesetzt – im Großen und Ganzen möglich. Das gilt umso mehr, wenn man Anwendungen wie ChatGPT & Co. tatsächlich nur als Werkzeug versteht und nicht etwa als Ghostwriter. Solange der Eigenanteil der Studierenden klar überwiegt, ist einer Zulassung auch bei Prüfungen nur wenig entgegenzusetzen. Natürlich müssen hierbei dennoch einige Probleme wie die Datensouveränität und die Chancengleichheit bedacht werden. Eines sei an dieser Stelle noch erwähnt: Kontrolle und Überprüfung zum Einsatzvolumen von KI-Systemen ist, soweit man das aktuell sagen kann, nicht rechtskräftig möglich.
Und wie steht es um den Datenschutz von KI-generierten Materialien? Für Prüfungen spielt das natürlich nur eine untergeordnete Rolle, für den Lehrbetrieb kann diese Frage dann aber schon interessanter werden. Hierzu zeigt Prof. Dr. Achim Förster von der TH Würzburg-Schweinfurt den aktuellen Stand der Rechtslage, macht aber auch deutlich, dass noch vieles auf dem Gebiet zu tun ist, ehe definitive Klarheit herrscht.
Eines immerhin ist klar geregelt: Werke müssen auf menschlichen Entscheidungen beruhen, um schutzfähig zu sein. KI-generierte Erzeugnisse als solche sind keine “persönliche geistige Schöpfung” und damit keine Werke im Sinne des Urheberrechtsgesetztes. Interessant ist dabei das gewählte Beispiel: Ein Künstler gewann mit einem KI-generierten, leicht verändertem Bild einen Wettbewerb und wollte anschließend sein Werk beim US Copyright Office registrieren.
Er ließ sich durch die KI „Midjourney“ ein Bild erschaffen. Dieses wurde im Nachgang vom Künstler bearbeitet. Diese Bearbeitungen waren nach dem US-Urheberrecht jedoch nicht gravierend genug, um das Werk als persönliche geistige Schöpfung zu bewerten. Einzig die Veränderungen sind hier schutzfähig. Darüber hinaus stellt KI-Output häufig eine unwissentliche Urheberrechtsverletzung dar. Diese ist für die Anwender:innen in aller Regel nicht erkennbar – haften müssen sie im Zweifel dennoch.
Das größte Problem an generativer KI liegt im Trainingsmaterial, also die Daten „echter“ Werke, die der KI beibringen, wie das Ergebnis aussehen könnte – hier kommt häufiger als man denken würde urheberrechtlich geschütztes Material zum Einsatz, ohne dass die jeweiligen Urheber:innen darüber in Kenntnis gesetzt werden. Möglich wird das durch verschiedene Rechtsgrundlagen: Beispielsweise sieht das deutsche Urheberrecht vor, dass nach §44b und §60d UrhG Text und Data Mining – also das automatisierte Sammeln von Daten für eben solche Trainingszwecke – erlaubt ist.
Was bedeutet das nun für Lehrende und Studierende? Erstmal nichts, außer, dass einer Verwendung im Lehrbetrieb nichts im Wege steht. Wer also allen Hürden zum Trotz in Kleinstarbeit den perfekten Prompt für das perfekte Beispielbild kreiert hat, darf dies laut Förster auch in der Lehre verwenden – aber eben nur dort.