Der Einsatz von Künstlicher Intelligenz (KI) als Wissenstool in Forschung, Lehre und Hochschulmanagement bietet zahlreiche Vorteile, bringt jedoch auch große Herausforderungen mit sich. So ermöglicht die KI bspw. den Studierenden und Lehrenden einen schnellen und personalisierten Zugang zu Wissen, unterstützt die Analyse komplexer Daten und fördert innovative Lehrmethoden. Forschende können z. B. mithilfe von maschinellem Lernen Muster in riesigen Datenmengen erkennen und statistische Modelle erstellen. Zudem kann die KI viele Routineaufgaben automatisieren und somit mehr Raum für kreative und kritische Denkprozesse schaffen. Doch in der Regel ist es unklar, wie die KI zu den Ergebnissen kommt, ob sie dabei nicht auch Rechte des Urhebers oder den Datenschutz verletzt oder möglicherweise wegen unvollständiger Daten zu fehlerhaften Entscheidungen bzw. Ergebnissen, sog. „Halluzinationen“ kommt. Mit einem unbedarften Einsatz der KI sind folglich auch große Risiken verbunden und es besteht generell die Notwendigkeit einer kritischen Reflexion der KI-generierten Inhalte.
Erste Hilfestellungen können für verschiedene Anliegen in den folgenden Dokumenten gefunden werden:
Praxisorientierte, nützliche KI-Werkzeuge für verschiedene Anwendungsszenarien.
Einsatzgebiet | Beschreibung | Notwendige Vorkenntnisse |
Hochschullehre | Ein Katalog erprobter Prompts aus Anwendungskontexten im Bereich der Hochschullehre | Keine |
Die EU hat mit dem „AI-Act“ (dt. „KI-Verordnung“ (KI-VO)) einen einheitlichen Rahmen für den Einsatz von KI in der Europäischen Union verabschiedet. Das Ziel der Verordnung ist die Sicherstellung der sicheren, ethischen und verantwortungsvollen Nutzung von KI in allen Bereichen. Die Verordnung verfolgt einen risikobasierten Ansatz, welcher auf der Einstufung der KI-Systeme in vier Risikoklassen aufbaut. Im Bildungsbereich stuft die KI-VO bspw. die Nutzung von KI-Systemen, die bestimmungsgemäß für die Bewertung von Lernergebnissen oder zur Überwachung und Erkennung von verbotenen Verhalten in Prüfungen eingesetzt werden, als Anwendungen mit hohem Risiko ein (siehe Anhang III Nr. 4 der KI-VO).
Zudem besteht nach Art. 50 KI-VO die Pflicht, auf den Einsatz der KI hinzuweisen, wenn (1) die Person mit einer KI interagiert, (2) von der KI generierte Inhalte präsentiert oder (3) von der KI Emotionen erfasst oder biometrische Daten kategorisiert werden. Diese sogenannten Transparenzpflichten treten aber erst zum 02.08.2026 in Kraft.
Die KI-VO hat somit hohe Relevanz für die UR, und zwar in zweierlei Hinsicht:
Die EU-Verordnung trat mit Bekanntgabe am 1. August 2024 in Kraft und erlangt phasenweise Gültigkeit. Sechs Monate nach dem Inkrafttreten der KI-VO zum 02. Februar 2025 beginnen erste Verbote und Regelungen zu gelten.
Zum gegenwärtigen Zeitpunkt müssen die Mitglieder der UR
Mit der phasenweisen Inkraftsetzung der KI-VO kommen künftig weitere Pflichten auf die Mitglieder der UR zu. Informationen dazu werden auf dieser Seite veröffentlicht. Ebenso wird demnächst auch ein Regelkatalog für die Einführung neuer KI-Systeme zur Verfügung gestellt.
Konsequenzen ergeben sich bei Missachtung der Regelungen. Konkret,
Die Missachtung der Anforderung der Schulungspflicht oder der Verbote ist insbesondere im Schadensfall problematisch, da dieser in der Praxis auch häufig Auslöser für Bußgelder ist. Jedoch ist ein Schaden nicht zwingende Voraussetzung. Auch Verstöße gegen die Verhaltenspflichten können eine Sanktion nach der KI-VO auslösen.
Abschließend ist darauf hinzuweisen, dass die KI-VO in Ergänzung zu bereits bestehenden Regelungen wie insbesondere der DSGVO zum Schutz der personenbezogenen Daten tritt. Verletzungen dieser Regelungen beim Einsatz eines KI-Systems können ebenfalls zu Sanktionen führen.
Die KI-VO sieht vor, dass alle, die mit KI arbeiten oder sie in ihrem Berufsumfeld nutzen wollen über fundierte Kenntnisse verfügen müssen. Dies betrifft sowohl die Grundlagen der KI als auch deren spezifische Anwendung in verschiedenen Bereichen. Dabei geht es nicht nur darum, KI effektiv einzusetzen, sondern auch um das Erkennen und Minimieren von Risiken, wie Diskriminierung, Datenschutzverletzungen oder ungewollte Abhängigkeiten von KI-Systemen.
Deshalb stehen im Folgenden speziell ausgewählte Schulungsangebote zur Verfügung. Diese sind so strukturiert, dass – je nach Wissensstand und Interessensgebiet – passende Module ausgewählt werden können:
Für alle, die sich mit den grundlegenden Prinzipien von KI vertraut machen möchten.
Umfang | Kursinhalte | Vorkenntnisse |
85 min |
| Keine |
8 Wochen à 5h |
| Keine |
Launchpad to AI - An Introduction to Applications, Risks, and Opportunities | ||
2 Wochen à 2h |
| Academic English (C1 CEFR)
|
14 Wochen à 3 h |
| Keine |
4h |
| Keine |
KI-Anwendungen speziell für den öffentlichen Sektor.
Anbieter | Kursinhalte | Notwendige Vorkenntnisse |
| Basisverständnis v. Aufgaben öffentlicher Verwaltungen |
Ansätze und Tipps für den sinnvollen Einsatz von KI in der Forschung.
Anbieter | Kursinhalte | Notwendige Vorkenntnisse |
Living guidelines on the responsible use of generative AI in research | ||
Die Kommission und die Länder sowie Akteure des Europäischen Forschungsraums haben Leitlinien für den verantwortungsvollen Einsatz generativer KI in der Forschung entwickelt. Sie bieten praxisnahe Empfehlungen für drei Zielgruppen: Forschende, Forschungseinrichtungen und Förderorganisationen. | Englich |
Didaktische und methodische Ansätze für den sinnvollen Einsatz von KI im Bildungsbereich.
Anbieter | Kursinhalte | Notwendige Vorkenntnisse |
N/A | N/A | |
Universität Regensburg | N/A | N/A |
Der Einsatz von KI-Systemen birgt auch Risiken, da ihre Entscheidungen auf teils undurchsichtigen Algorithmen, eventuell fehlerhaften oder voreingenommenen Trai-ningsdaten und nicht-überprüfbaren Entscheidungsstrukturen beruhen können und somit ggf. nicht nachvollziehbar oder inkorrekt sind. Dies kann zu Ungerechtigkeiten, Diskriminierung und Manipulation führen, insbesondere in sensiblen Bereichen wie Justiz, Arbeitsplatz oder öffentlichem Raum. Da fehlerhafte oder voreingenommene Entscheidungen durch die KI häufig nicht nachvollzogen oder korrigiert werden können, besteht die Gefahr, dass Personen ungleich oder ungerecht behandelt werden, ohne dass ein fairer und transparenter Bewertungsprozess gewährleistet ist. Um diese Gefahren zu vermeiden, verbietet die EU mit der KI-VO gezielt bestimmte KI-Praktiken, die grundlegende Rechte und Freiheiten bedrohen.
Deshalb beziehen sich verbotene KI-Praktiken auch nur auf Anwendungen der KI im produktiven Betrieb, d.h. dort wo ein Schaden für Personen entstehen kann.
Unberührt davon bleibt die ethische Verantwortung der Forschenden und Lehrenden bestehen.
Nach der KI-VO grundsätzlich verboten sind folgende KI-Praktiken bzw. -Systeme in den aufgeführten Einsatzgebieten (siehe Kapitel II, Artikel 5, KI-VO). Die Beispiele dienen zur Veranschaulichung und sind nicht vollständig.
Unterschwellige Beeinflussung, absichtlich manipulative Techniken
Beispiel: Es werden durch eine KI personalisierte Empfehlungen für Lernmaterialien oder Kurse gegeben. Die KI schlägt bestimmte Kurse oder Inhalte basierend auf wirtschaftlichen oder institutionellen Interessen anstatt auf den tatsächlichen Bedürfnissen der Studierenden vor.
Ausnutzung der Schutzbedürftigkeit einer Person
Beispiel: Eine Hochschule setzt eine KI-gestützte Prüfungssoftware ein, die durch Gesichtserkennung und Eye-Tracking prüft, ob Studierende während Online-Klausuren mogeln. Studierende mit bestimmten Behinderungen (z. B. Sehbehinderungen oder motorischen Einschränkungen) haben dabei eine höhere Fehlerquote, weil sie sich anders verhalten und damit ggf. Muster erfüllen, aufgrund derer die KI-gestützte Software Mogeln unterstellt. Der Einsatz der KI in der Prüfungssoftware führt auf diese Weise zu einer erheblichen Benachteiligung dieser Studierendengruppe und nutzt ihre Schutzbedürftigkeit aus.
Schlechterstellende Einstufung auf der Grundlage sozialen Verhaltens, persönlicher Eigenschaften oder Persönlichkeitsmerkmalen
Beispiel: Es wird ein KI-System eingesetzt, um Bewerbungen für ein Förderprogramm oder einen bestimmten Studiengang zu bewerten. Die KI bezieht neben fachlichen Qualifikationen auch Persönlichkeitsmerkmale in die Bewertung der Bewerbungen ein, um die Zuteilung der Studierenden zu dem Förderprogramm bzw. Studiengang vorzunehmen. Aufgrund des Blackbox-Charakters der KI bleibt jedoch undurchsichtig, wie genau diese Einstufungen zustande kommen. Zudem könnte ein Bias innerhalb der Trainingsdaten dazu führen, dass bestimmte Persönlichkeitsmerkmale systematisch schlechter bewertet werden. So könnten beispielsweise weniger extrovertierte Personen vom Algorithmus der KI benachteiligt werden, obwohl dieses Persönlichkeitsmerkmal keinen negativen Einfluss auf die auszuführende Tätigkeit hat.
Ableitung von Emotionen einer natürlichen Person am Arbeitsplatz und in Bildungseinrichtungen
Beispiel: Es wird ein KI-System eingesetzt, um die Leistung in einer Präsentation zu bewerten. Die KI misst Stimmhöhe, Tonfall und Sprechtempo, um Nervosität oder Selbstbewusstsein zu erkennen und um darauf basierend zu bewerten, ob jemand überzeugend, unsicher oder ängstlich gewirkt hat. Auf diese Weise entsteht ein Überwachungsdruck für die Person, denn auch Fehlinterpretationen der KI können zu falschen Bewertungen der Person führen.
Datenbank zur automatisierten Gesichtserkennung
Beispiel: Es wird ein KI-gestütztes Gesichtserkennungssystem eingesetzt, das Kameras auf dem gesamten Campus nutzt und auf eine Datenbank mit Gesichtsmerkmalen aller eingeschriebenen Studierenden zugreift. Jede Bewegung der Studierenden wird erfasst und auffälliges Verhalten analysiert.
Biometrische Kategorisierung von Personen in sensiblen Bereichen
Beispiel: Es wird ein KI-System eingesetzt, dass das Tippverhalten oder die Mimik und Gestik (Visual Analytics) der Mitarbeitenden analysiert, um Rückschlüsse auf deren psychische Gesundheit oder mögliche Behinderungen zu ziehen. Solche Informationen könnten für Personalentscheidungen missbraucht werden.
Predictive Policing
Beispiel: Es werden Videos von Überwachungskameras mittels KI analysiert, um potenzielle Sicherheitsrisiken vorherzusagen. Die KI erkennt „möglicherweise verdächtige“ Bewegungsmuster oder Gruppierungen auf dem Campus und nutzt Vergleichsdaten aus früheren Vorfällen, um vorherzusagen, wer potenziell Regelverstöße wie z. B. Vandalismus oder Diebstahl begehen könnte. Einzelnen Personen könnten auf diese Weise falsche Absichten unterstellt werden.