Zu Hauptinhalt springen

Leitlinien zum Umgang mit KI

Der Einsatz von KI als Wissenstool an der UR

Der Einsatz von Künstlicher Intelligenz (KI) als Wissenstool in Forschung, Lehre und Hochschulmanagement bietet zahlreiche Vorteile, bringt jedoch auch große Herausforderungen mit sich. So ermöglicht die KI bspw. den Studierenden und Lehrenden einen schnellen und personalisierten Zugang zu Wissen, unterstützt die Analyse komplexer Daten und fördert innovative Lehrmethoden. Forschende können z. B. mithilfe von maschinellem Lernen Muster in riesigen Datenmengen erkennen und statistische Modelle erstellen. Zudem kann die KI viele Routineaufgaben automatisieren und somit mehr Raum für kreative und kritische Denkprozesse schaffen. Doch in der Regel ist es unklar, wie die KI zu den Ergebnissen kommt, ob sie dabei nicht auch Rechte des Urhebers oder den Datenschutz verletzt oder möglicherweise wegen unvollständiger Daten zu fehlerhaften Entscheidungen bzw. Ergebnissen, sog. „Halluzinationen“ kommt. Mit einem unbedarften Einsatz der KI sind folglich auch große Risiken verbunden und es besteht generell die Notwendigkeit einer kritischen Reflexion der KI-generierten Inhalte.


Generelle Hilfestellungen und Regelungen

Hilfreiche Tools zur Nutzung der KI

Praxisorientierte, nützliche KI-Werkzeuge für verschiedene Anwendungsszenarien.

Einsatzgebiet

Beschreibung

Notwendige Vorkenntnisse

Prompt-Katalog

Hochschullehre

Ein Katalog erprobter Prompts aus Anwendungskontexten im Bereich der Hochschullehre

Keine

Microsoft Copilot



Europäische KI-Verordnung

Die EU hat mit dem „AI-Act“ (dt. „KI-Verordnung“ (KI-VO)) einen einheitlichen Rahmen für den Einsatz von KI in der Europäischen Union verabschiedet. Das Ziel der Verordnung ist die Sicherstellung der sicheren, ethischen und verantwortungsvollen Nutzung von KI in allen Bereichen. Die Verordnung verfolgt einen risikobasierten Ansatz, welcher auf der Einstufung der KI-Systeme in vier Risikoklassen aufbaut. Im Bildungsbereich stuft die KI-VO bspw. die Nutzung von KI-Systemen, die bestimmungsgemäß für die Bewertung von Lernergebnissen oder zur Überwachung und Erkennung von verbotenen Verhalten in Prüfungen eingesetzt werden, als Anwendungen mit hohem Risiko ein (siehe Anhang III Nr. 4 der KI-VO).

Zudem besteht nach Art. 50 KI-VO die Pflicht, auf den Einsatz der KI hinzuweisen, wenn (1) die Person mit einer KI interagiert, (2) von der KI generierte Inhalte präsentiert oder (3) von der KI Emotionen erfasst oder biometrische Daten kategorisiert werden. Diese sogenannten Transparenzpflichten treten aber erst zum 02.08.2026 in Kraft.


Relevanz der KI-VO für die UR

Die KI-VO hat somit hohe Relevanz für die UR, und zwar in zweierlei Hinsicht:

  • Einerseits stellt die UR ihren Mitgliedern, z. B. mit dem Microsoft Copilot als Tool, das ChatGPT nutzt und damit zur Formulierung von Texten oder zum Zusammenfassen von Texten verwendet werden kann, oder DeepL als Übersetzungshilfe im Rahmen des TYPO3-Systems, KI-Systeme zur Anwendung bereit und ist im Sinne der Verordnung Betreiber von KI-Systemen (Art. 3 KI-VO).
  • Andererseits entwickeln Mitglieder der UR im Rahmen von Forschungsarbeiten oder der Lehre möglicherweise eigenständig KI-Systeme, die mitunter auch bestehende KI-Systeme (wie z. B. ChatGPT) nutzen. Wenn diese Eigenentwicklungen produktiv genutzt werden bspw., um im Rahmen einer wirtschaftlichen Kooperation einen KI-basierten Chatbot zu implementieren oder Studierende in Lerngruppen einzuteilen, dann tritt die UR als Anbieter von KI-Systemen im Sinne der Verordnung (Art. 3 KI-VO) auf.

Pflichten und Verbote aus der KI-VO

Die EU-Verordnung trat mit Bekanntgabe am 1. August 2024 in Kraft und erlangt phasenweise Gültigkeit. Sechs Monate nach dem Inkrafttreten der KI-VO zum 02. Februar 2025 beginnen erste Verbote und Regelungen zu gelten.

Zum gegenwärtigen Zeitpunkt müssen die Mitglieder der UR

  • sich Kompetenzen in der Anwendung und im Umgang mit KI-Systemen aneignen, wenn sie KI-Systeme (potenziell) nutzen.
  • sicherstellen, dass keine KI-Systeme zum produktiven Einsatz kommen, welche verbotene Praktiken beinhalten. Dabei ist es unerheblich, ob es sich um ein nur innerhalb der Universität betriebenes KI-System (siehe erstes Beispiel der verbotenen Praktiken) handelt oder ob es ein KI-System ist, welches öffentlich verfügbar und nutzbar ist.

Mit der phasenweisen Inkraftsetzung der KI-VO kommen künftig weitere Pflichten auf die Mitglieder der UR zu. Informationen dazu werden auf dieser Seite veröffentlicht. Ebenso wird demnächst auch ein Regelkatalog für die Einführung neuer KI-Systeme zur Verfügung gestellt.


Sanktionen bei Missachtung

Konsequenzen ergeben sich bei Missachtung der Regelungen. Konkret,

  • wenn der Schulungspflicht nicht nachgekommen wird und durch den Einsatz eines KI-Systems durch eine nicht-kompetente Person der UR ein Schaden entsteht,
  • wenn Systeme mit verbotenen KI-Praktiken im produktiven Betrieb verwendet werden und mit Realweltdaten arbeiten.

Die Missachtung der Anforderung der Schulungspflicht oder der Verbote ist insbesondere im Schadensfall problematisch, da dieser in der Praxis auch häufig Auslöser für Bußgelder ist. Jedoch ist ein Schaden nicht zwingende Voraussetzung. Auch Verstöße gegen die Verhaltenspflichten können eine Sanktion nach der KI-VO auslösen.

Abschließend ist darauf hinzuweisen, dass die KI-VO in Ergänzung zu bereits bestehenden Regelungen wie insbesondere der DSGVO zum Schutz der personenbezogenen Daten tritt. Verletzungen dieser Regelungen beim Einsatz eines KI-Systems können ebenfalls zu Sanktionen führen.



Schulungsangebote

Die KI-VO sieht vor, dass alle, die mit KI arbeiten oder sie in ihrem Berufsumfeld nutzen wollen über fundierte Kenntnisse verfügen müssen. Dies betrifft sowohl die Grundlagen der KI als auch deren spezifische Anwendung in verschiedenen Bereichen. Dabei geht es nicht nur darum, KI effektiv einzusetzen, sondern auch um das Erkennen und Minimieren von Risiken, wie Diskriminierung, Datenschutzverletzungen oder ungewollte Abhängigkeiten von KI-Systemen.

Deshalb stehen im Folgenden speziell ausgewählte Schulungsangebote zur Verfügung. Diese sind so strukturiert, dass – je nach Wissensstand und Interessensgebiet – passende Module ausgewählt werden können:


KI-Grundkompetenz

Für alle, die sich mit den grundlegenden Prinzipien von KI vertraut machen möchten.

Umfang

Kursinhalte

Vorkenntnisse

Künstliche Intelligenz (KI)

85 min

  • Grundlagen der Künstlichen Intelligenz
  • Überblick über die KI-Verordnung
  • Rahmenbedingungen für den praktischen Einsatz von KI
  • Praktische Übung im Prompting (Bedienung von generativer KI, insbesondere BayernKI)
  • Aktuelle KI-Trends: Ein Überblick über Technologien und Anwendungsfelder der KI, sowohl allgemein als auch spezifisch in der Staatsverwaltung

Keine

Einführung in die KI

8 Wochen à 5h

  • Was ist KI?
  • Warum ist es wichtig sich mit dem Thema zu befassen?
  • Welche neuen Potenziale bringt das maschinelle Lernen?
  • Wie kommen diese Potenziale zustande?
  • Was ist Generative KI - und wie kannst du es verwenden?
  • Welche Risiken entstehen mit KI?
  • Wie können wir mit diesen Risiken umgehen?
  • Welchen Einfluss hat KI auf unsere Zukunft?
  • Wie können wir uns vorbereiten?

Keine

Launchpad to AI - An Introduction to Applications, Risks, and Opportunities

2 Wochen à 2h

  • Functionality of an algorithm  
  • Application areas of AI and their development in everyday life   
  • Importance of data security and data protection  
  • Challenges in questions of human-machine interaction  
  • Development of AI  
  • Opportunities, risks and challenges of AI 

Academic English (C1 CEFR)

 

 

 

 

KI für alle

14 Wochen à 3 h

  • Grundlagen der Künstlichen Intelligenz, insbesondere des Maschinellen Lernens
  • Datenaufbereitung, -analyse und -visualisierung
  • Grundlegende Einführung in die Programmierung mit Python
  • Ethische und rechtliche Implikationen von Künstlicher Intelligenz

Keine

AI Essentials: Eine Einführung in die KI

4h

  • Erklären können, was KI und maschinelles Lernen ist, einschließlich der Unterschiede zu neuronalen Netzen und Deep Learning.
  • Die Möglichkeiten der KI in Anwendungsfällen erkennen, zusammen mit ihren Vorteilen, Risiken, Einschränkungen und Regulierungsfragen.
  • Die verschiedenen Arten des maschinellen Lernens identifizieren und auf hohem Niveau erklären können, wie eine Maschine lernt

Keine


KI-Spezialisierung - Öffentliche Verwaltung

KI-Anwendungen speziell für den öffentlichen Sektor.

Anbieter

Kursinhalte

Notwendige Vorkenntnisse

KIÖV – KI in öffentlichen Verwaltungen

KI-Campus

  • KI-Anwendung im öffentlichen Sektor  
  • Grundlagenkonzepte von KI
  • Anwendung erklärbarer KI 
  • Rechtliche Rahmenbedingungen

Basisverständnis v. Aufgaben öffentlicher Verwaltungen


KI-Spezialisierung - Einsatz in der Forschung

Ansätze und Tipps für den sinnvollen Einsatz von KI in der Forschung.

Anbieter

Kursinhalte

Notwendige Vorkenntnisse

Living guidelines on the responsible use of generative AI in research

European Commission

Die Kommission und die Länder sowie Akteure des Europäischen Forschungsraums haben Leitlinien für den verantwortungsvollen Einsatz generativer KI in der Forschung entwickelt. Sie bieten praxisnahe Empfehlungen für drei Zielgruppen: Forschende, Forschungseinrichtungen und Förderorganisationen.

Englich


KI-Spezialisierung - Einsatz in der Lehre

Didaktische und methodische Ansätze für den sinnvollen Einsatz von KI im Bildungsbereich.

Anbieter

Kursinhalte

Notwendige Vorkenntnisse

Netzwerk Landeseinrichtungen für digitale Hochschullehre

Netzwerk Landeseinrichtungen

N/A

N/A

KI in der Lehrveranstaltung nutzen

Universität Regensburg

N/A

N/A



Verbotene KI-Praktiken

Der Einsatz von KI-Systemen birgt auch Risiken, da ihre Entscheidungen auf teils undurchsichtigen Algorithmen, eventuell fehlerhaften oder voreingenommenen Trai-ningsdaten und nicht-überprüfbaren Entscheidungsstrukturen beruhen können und somit ggf. nicht nachvollziehbar oder inkorrekt sind. Dies kann zu Ungerechtigkeiten, Diskriminierung und Manipulation führen, insbesondere in sensiblen Bereichen wie Justiz, Arbeitsplatz oder öffentlichem Raum. Da fehlerhafte oder voreingenommene Entscheidungen durch die KI häufig nicht nachvollzogen oder korrigiert werden können, besteht die Gefahr, dass Personen ungleich oder ungerecht behandelt werden, ohne dass ein fairer und transparenter Bewertungsprozess gewährleistet ist. Um diese Gefahren zu vermeiden, verbietet die EU mit der KI-VO gezielt bestimmte KI-Praktiken, die grundlegende Rechte und Freiheiten bedrohen.

Deshalb beziehen sich verbotene KI-Praktiken auch nur auf Anwendungen der KI im produktiven Betrieb, d.h. dort wo ein Schaden für Personen entstehen kann.

  • Davon explizit in der KI-VO ausgenommen sind KI-Systeme, die nur für den Zweck der wissenschaftlichen Forschung und Demonstration entwickelt und genutzt werden.
  • KI-Systeme in der Lehre, die ausdrücklich nur für den Zweck der Veranschaulichung der Funktionalität der KI (ggf. auch verbotener Praktiken) eingesetzt werden, sind nicht explizit aus dem Anwendungsbereich der KI-VO ausgeschlossen. Ihre Verwendung ist nicht pauschal verboten. Für sie gelten Verhaltenspflichten u.a. ggf. oben erwähnte Transparenzpflichten.

Unberührt davon bleibt die ethische Verantwortung der Forschenden und Lehrenden bestehen.

Nach der KI-VO grundsätzlich verboten sind folgende KI-Praktiken bzw. -Systeme in den aufgeführten Einsatzgebieten (siehe Kapitel II, Artikel 5, KI-VO). Die Beispiele dienen zur Veranschaulichung und sind nicht vollständig.


1. Unterschwellige Beeinflussung

Unterschwellige Beeinflussung, absichtlich manipulative Techniken

Beispiel: Es werden durch eine KI personalisierte Empfehlungen für Lernmaterialien oder Kurse gegeben. Die KI schlägt bestimmte Kurse oder Inhalte basierend auf wirtschaftlichen oder institutionellen Interessen anstatt auf den tatsächlichen Bedürfnissen der Studierenden vor.


2. Ausnutzung der Schutzbedürftigkeit

Ausnutzung der Schutzbedürftigkeit einer Person

Beispiel: Eine Hochschule setzt eine KI-gestützte Prüfungssoftware ein, die durch Gesichtserkennung und Eye-Tracking prüft, ob Studierende während Online-Klausuren mogeln. Studierende mit bestimmten Behinderungen (z. B. Sehbehinderungen oder motorischen Einschränkungen) haben dabei eine höhere Fehlerquote, weil sie sich anders verhalten und damit ggf. Muster erfüllen, aufgrund derer die KI-gestützte Software Mogeln unterstellt. Der Einsatz der KI in der Prüfungssoftware führt auf diese Weise zu einer erheblichen Benachteiligung dieser Studierendengruppe und nutzt ihre Schutzbedürftigkeit aus.


3. Schlechterstellende Einstufung

Schlechterstellende Einstufung auf der Grundlage sozialen Verhaltens, persönlicher Eigenschaften oder Persönlichkeitsmerkmalen

Beispiel: Es wird ein KI-System eingesetzt, um Bewerbungen für ein Förderprogramm oder einen bestimmten Studiengang zu bewerten. Die KI bezieht neben fachlichen Qualifikationen auch Persönlichkeitsmerkmale in die Bewertung der Bewerbungen ein, um die Zuteilung der Studierenden zu dem Förderprogramm bzw. Studiengang vorzunehmen. Aufgrund des Blackbox-Charakters der KI bleibt jedoch undurchsichtig, wie genau diese Einstufungen zustande kommen. Zudem könnte ein Bias innerhalb der Trainingsdaten dazu führen, dass bestimmte Persönlichkeitsmerkmale systematisch schlechter bewertet werden. So könnten beispielsweise weniger extrovertierte Personen vom Algorithmus der KI benachteiligt werden, obwohl dieses Persönlichkeitsmerkmal keinen negativen Einfluss auf die auszuführende Tätigkeit hat.


4. Ableitung von Emotionen einer natürlichen Person

Ableitung von Emotionen einer natürlichen Person am Arbeitsplatz und in Bildungseinrichtungen

Beispiel: Es wird ein KI-System eingesetzt, um die Leistung in einer Präsentation zu bewerten. Die KI misst Stimmhöhe, Tonfall und Sprechtempo, um Nervosität oder Selbstbewusstsein zu erkennen und um darauf basierend zu bewerten, ob jemand überzeugend, unsicher oder ängstlich gewirkt hat. Auf diese Weise entsteht ein Überwachungsdruck für die Person, denn auch Fehlinterpretationen der KI können zu falschen Bewertungen der Person führen.


5. Datenbank zur automatisierten Gesichtserkennung

Datenbank zur automatisierten Gesichtserkennung

Beispiel: Es wird ein KI-gestütztes Gesichtserkennungssystem eingesetzt, das Kameras auf dem gesamten Campus nutzt und auf eine Datenbank mit Gesichtsmerkmalen aller eingeschriebenen Studierenden zugreift. Jede Bewegung der Studierenden wird erfasst und auffälliges Verhalten analysiert.


6. Biometrische Kategorisierung in sensiblen Bereichen

Biometrische Kategorisierung von Personen in sensiblen Bereichen

Beispiel: Es wird ein KI-System eingesetzt, dass das Tippverhalten oder die Mimik und Gestik (Visual Analytics) der Mitarbeitenden analysiert, um Rückschlüsse auf deren psychische Gesundheit oder mögliche Behinderungen zu ziehen. Solche Informationen könnten für Personalentscheidungen missbraucht werden.


7. Predictive Policing

Predictive Policing

Beispiel: Es werden Videos von Überwachungskameras mittels KI analysiert, um potenzielle Sicherheitsrisiken vorherzusagen. Die KI erkennt „möglicherweise verdächtige“ Bewegungsmuster oder Gruppierungen auf dem Campus und nutzt Vergleichsdaten aus früheren Vorfällen, um vorherzusagen, wer potenziell Regelverstöße wie z. B. Vandalismus oder Diebstahl begehen könnte. Einzelnen Personen könnten auf diese Weise falsche Absichten unterstellt werden.



Digitalisierung