zum Inhalt springen

Vertraulichkeitsklassen für Informationen im KI-Kontext

KlassifizierungÖffentlich
BeschränkungInformationen, die ohne Einschränkung geteilt werden dürfen, insbesondere auch mit der allgemeinen Öffentlichkeit.
SchadenspotenzialEine unautorisierte Offenlegung dieser Informationen hätte keine Auswirkungen auf betroffene Personen, Prozesse, Systeme oder Einrichtungen und keinen Folgen für die Universität zu Köln.
Personenbezogene DatenPersonenbezogene Daten, die von den Betroffenen frei zugänglich gemacht wurden.
Beispiele für Daten/Informationen
  • Öffentlich zugängliche Forschungs- und Publikationsinformationen (z.B. Abstracts, Vorträge, Konferenzbeiträge)
  • Marketing- und PR-Material (Flyer, Broschüren, Pressemitteilungen)
  • Öffentliche Informationen auf der Universitätswebseite
KI-SystemeNutzung von KI-Systemen ohne Einschränkung erlaubt. Hosting in Cloud (EU / NichtEU) sowie On-Premise zulässig. Trainingsnutzung der Eingaben durch Anbieter ist akzeptabel. Externe Accountbindung in eigenem Ermessen.
Beispiele für KI-Tools
  • ChatGPT Free / Plus
  • MS Copilot Chat

KlassifizierungIntern
BeschränkungInformationen, die nur innerhalb der Universität und gegebenenfalls mit Partnern geteilt werden dürfen.
SchadenspotenzialEine unautorisierte Offenlegung dieser Informationen hätte sehr geringe bis geringe Auswirkungen auf betroffene Personen und/ oder Prozesse, Systeme oder Einrichtungen mit minimalen bis kaum spürbaren Folgen für die Universität zu Köln.
Personenbezogene DatenPersonenbezogene Daten, deren unsachgemäße Handhabung zwar keine besondere Beeinträchtigung erwarten lässt, die aber von den Betroffenen nicht frei zugänglich gemacht wurden.
Beispiele für Daten/Informationen
  • Interne Rundschreiben, organisatorische Dokumente der Fachbereiche ohne vertrauliche Personenbezüge.
  • Nicht-öffentliche Lehrmaterialien, die jedoch keine sensiblen Personendaten beinhalten.
  • Erste konzeptionelle Forschungsansätze (ohne sensible Details).
  • Urheberrechtlich geschütztes Material
KI-SystemeNutzung erlaubt, sofern keine Nutzung der Eingabedaten für  Trainingszwecke. Hosting auf On-Premise oder in EU-Cloud zulässig. Nutzung von Nicht-EU-Clouds nur mit vertraglicher Absicherung (z. B. DPA + SCC). Externe Accountbindung nur wenn keine langfristige Protokollierung und keine Auswertung.
Beispiele für KI-ToolsAlle auf der UzK-internen Whitelist gelisteten Tools.

KlassifizierungVertraulich
BeschränkungInformationen, die nur innerhalb der Universität und gegebenenfalls mit Partnern nach dem Prinzip der Erforderlichkeit (need-to- know) geteilt werden dürfen.
SchadenspotenzialEine unautorisierte Offenlegung dieser Informationen hätte mäßige bis erhebliche Auswirkungen auf betroffene Personen und/oder Prozesse, Systeme oder Einrichtungen mit wahrnehmbaren bis ernsthaften Folgen für die Universität zu Köln.
Personenbezogene DatenPersonenbezogene Daten, deren unsachgemäße Handhabung den Betroffenen in seiner gesellschaftlichen Stellung oder in seinen wirtschaftlichen Verhältnissen beeinträchtigen könnte ("Ansehen").
Beispiele für Daten/Informationen
  • Personaldaten (z.B. Gehaltsinformationen, Bewerbungen), Studierendendaten (Leistungsnachweise, Prüfungsdaten).
  • Noch unveröffentlichte Forschungsdaten
  • Interne Protokolle von Gremien und Ausschüssen, die sensible Themen enthalten.
KI-SystemeNutzung nur mit vertraglicher Zusicherung, dass Eingabedaten nicht für Trainingszwecke verwendet werden. Hosting nur On-Premise oder in EU-Cloud mit starker vertraglicher Absicherung (kein Zugriff Dritter, Ende- zu-Ende-Verschlüsselung). Nutzung von Nicht-EU-Clouds nicht zulässig. Interne Zugangsbeschränkung auf Universitätsangehörige. Externe Accountbindung nur mit pseudonymisiertem Zugang.
Beispiele für KI-ToolsUzK-internes Angebot “OSKI” mit Zugang über KI:connect

KlassifizierungStreng vertraulich
BeschränkungInformationen, die nur inner- halb einer explizit definierten Gruppe geteilt werden dürfen.
SchadenspotenzialEine unautorisierte Offen- legung dieser Informationen hätte große bis sehr große Auswirkungen auf be- troffene Personen und/oder Prozesse bzw. Systeme mit schwerwiegenden bis katastrophalen Folgen für die Universität zu Köln.
Personenbezogene DatenPersonenbezogene Daten, deren unsachgemäße Handhabung Gesundheit, Leben oder Freiheit des Betroffenen beeinträchtigen könnte und/oder den Betroffenen in seiner gesellschaftlichen Stellung oder in seinen wirtschaftlichen Verhältnissen erheblich beeinträchtigen könnten ("Existenz").
Beispiele für Daten/Informationen
  • Medizinische oder psychologische Daten von Proband*innen, Patient*innen oder Studierenden.
  • Details zu laufenden Drittmittelprojekten mit strengem Patentschutz, Verschwiegenheitsvereinbarungen oder hohen Reputationsrisiken.
  • Geschäftsgeheimnisse in kooperativen Forschungsprojekten mit Unternehmen (z.B. geheime technische Daten, Prototypen, neue Verfahren).
KI-SystemeNutzung von KI-Systemen nur auf isolierten On-Premises-Systemen mit vollständiger Kontrolle. Cloud-Nutzung (auch EU) i.d.R. nicht erlaubt. Eingaben dürfen unter keinen Umständen für Trainingszwecke verwendet werden – vertragliche Absicherung zwingend erforderlich. Nachvollziehbarkeit intern erwünscht oder sogar notwendig, z. B. um Missbrauch zu verhindern.
Beispiele für KI-ToolsDerzeit keine Möglichkeiten.

Aktuell:
Informationen zu Tools für kollaboratives Arbeiten im Homeoffice
Kontakt
Bei Fragen und für individuellen Support wenden Sie sich bitte an den ITCC-Helpdesk