Bessere Datensicherheit durch ChatGPT

In Datenschutz- und Datensicherheitskreisen wird ChatGPT oft äußerst kritisch betrachtet. Andere Akzente hingegen setzt das Bundesamt für Sicherheit in der Informationstechnik (BSI). Die Kernaussage: ChatGPT kann die Datensicherheit verbessern – unter der Prämisse, dass ChatGPT sinnvoll eingesetzt wird. Denn das menschliche Denken wird dadurch nicht überflüssig.

Die Risiken sind bekannt

Täuschend echte Spam-Mails durch ChatGPT? Kein Problem! Programmierung von Schadsoftware? Ebenfalls möglich! Diese Risiken entgehen natürlich auch dem BSI nicht. Es fasst die Lage so zusammen: Der Einsatz eines Sprachmodells wie ChatGPT „verstärkt das Bedrohungspotenzial einiger bekannter IT-Sicherheitsbedrohungen.“

Doch auch die Chancen sollten bedacht werden

„Wo aber Gefahr ist, wächst das Rettende auch.“ Was Dichter Hölderlin bereits vor über 200 Jahren wusste, gilt heute auch für ChatGPT. Zwar zitiert ihn das BSI nicht, allerdings geht es in einem Arbeitspapier ausführlich darauf ein, wie ChatGPT für eine Verbesserung der IT-Sicherheit sorgen kann. Dabei spricht es eine große Auswahl an Möglichkeiten an.

„Detektion unerwünschter Inhalte“

Die erste Möglichkeit besteht darin, unerwünschte Inhalte herauszufiltern. Diese Formulierung mag zunächst abstrakt wirken. Sie spielt auf die Kehrseite der Produktion unerwünschter Inhalte ein. Ein System, welches „gut gemachte“ Spam-Mails erzeugen kann, erkennt derartige Spam-Mails prinzipiell auch sehr gut. Das bietet Opfern von Spam-Mails die Chance, sich auf Augenhöhe gegen die Täter zur Wehr zu setzen.

Datenverkehr analysieren lassen

Ferner gibt es auch die Möglichkeit, sich bei der Analyse von Datenverkehr unterstützen zu lassen. Eine solche Analyse erlaubt es beispielsweise, ungewöhnliche Netzwerkverkehr-Vorgänge zu erkennen. So kann auf Schadsoftware hingewiesen werden, die im Netzwerk unterwegs ist. Auch verdächtige Vorgänge beim Einloggen lassen sich mithilfe vernünftiger Analysen herausfiltern.

Möglich: eine Untersuchung auf Sicherheitslücken

Was überraschen dürfte, ist, dass ein System wie ChatGPT auch dazu eingesetzt werden kann, vorhandene Programmcodes auf bekannte Sicherheitslücken zu untersuchen. Häufig richtet sich die Aufmerksamkeit auf innovative Sicherheitslücken, die bisher niemand berücksichtigt hatte. Und auch, wenn solche neuen Sicherheitslücken durchaus wichtig sind, entstehen oft genug Schäden durch längst bekannte Sicherheitslücken, die man lediglich hätte berücksichtigen müssen.

Große Datenmengen lassen sich schnell auswerten

Ein System wie ChatGPT kann generell hilfreich sein, um große Textmengen zu analysieren. Im Bereich der IT-Sicherheit tritt die Notwendigkeit dazu insbesondere auf, wenn es zu Sicherheitsvorfällen gekommen ist. Dann lautet die Devise oft, große Mengen an Texte rasch zu analysieren, um das Ausmaß des Vorfalls richtig abschätzen zu können.

Oft täuscht die äußere Qualität von Texten

Fast nie gibt es Chancen ohne Risiken. Das gilt auch bei den oben erläuterten Möglichkeiten. Es gilt: Systeme wie ChatGPT kreieren Texte, die sprachlich meist fehlerfrei sind und auf den ersten, vielleicht sogar auf den zweiten Blick inhaltlich stark überzeugen können. Deshalb ist es besonders wichtig, welche Daten dem System als Training zu Grund lagen. Wer mithilfe des Systems beispielsweise nach Schadsoftware sucht, muss sich vorher Gedanken machen, welche Typen von Schadsoftware es überhaupt „kennen“ kann.

Geben und Nehmen sind zwei Seiten der Medaille

Nur, wer Daten gibt, erhält bei Systemen wie ChatGPT auch welche zurück. Eine vermeintlich harmlose Dateneingabe enthält oft sensible oder vertrauliche Informationen. Was mit ihnen passiert, lässt sich nicht nachvollziehen. Fest steht jedoch: Sie fließen in die vorhandene Datenbasis ein, was dazu führen kann, dass sie sich in unvorhersehbaren Zusammenhängen irgendwo wiederfinden. Theoretisch kann dieses Risiko vermieden werden – durch den Aufbau einer eigenen Datenbasis; ChatGPT und Co. nutzt man dann nur mithilfe dieser Basis. Praktisch umsetzen lässt sich das hingegen nur für wenige Unternehmen und mit den entsprechenden Ressourcen.

Weiterführende Informationen

Wer mehr über das Thema erfahren möchte, sollte auf das 21-seitige Dokument „Große KI-Sprachmodelle – Chancen und Risiken für Industrie und Behörden“ des BSI zurückgreifen. Es wurde am 3. Mai 2023 veröffentlicht und ist hier abrufbar: https://www.bsi.bund.de/SharedDocs/Downloads/DE/BSI/KI/Grosse_KI_Sprachmodelle.html

Nach oben scrollen