Google warnt Angestellte vor unbedachter Nutzung des hauseigenen Chatbots
In diesem Blogbeitrag möchte ich Ihnen erklären, warum Google seine Angestellten vor der unbedachten Nutzung des hauseigenen Chatbots Bard gewarnt hat und welche Risiken damit verbunden sind. Bard ist ein KI-Programm, das auf einem großen Sprachmodell basiert und in der Lage ist, Texte und Code zu generieren. Bard kann als eine Art virtueller Assistent genutzt werden, der Fragen beantwortet, Informationen sucht oder Vorschläge macht.
Bard klingt nach einem nützlichen und innovativen Werkzeug, aber es birgt auch einige Gefahren für die Sicherheit und Privatsphäre von Google und seinen Angestellten. Das liegt daran, dass Bard nicht nur lernt, wie man Texte und Code erzeugt, sondern auch, was in diesen Texten und Code enthalten ist. Und das kann vertrauliche oder sensible Informationen sein, die nicht für die Öffentlichkeit bestimmt sind.
Zum Beispiel könnte ein Google-Angestellter Bard fragen, wie man eine bestimmte Funktion in einem internen Projekt implementiert. Bard würde dann einen Code-Vorschlag generieren, der aber möglicherweise Betriebsgeheimnisse oder Sicherheitslücken enthält. Wenn der Angestellte diesen Code-Vorschlag ohne Prüfung übernimmt oder weitergibt, könnte er damit Google schaden oder angreifbar machen.
Ein weiteres Beispiel wäre, wenn ein Google-Angestellter Bard persönliche oder private Informationen mitteilt, wie zum Beispiel seinen Namen, seine Adresse oder seine Passwörter. Bard würde diese Informationen zwar nicht absichtlich weitergeben, aber sie könnten in seinem Speicher gespeichert werden und später von anderen abgerufen werden. Denn Bard wird nicht nur von Google-Angestellten genutzt, sondern auch von externen Prüfern und Trainern, die Zugriff auf die Chats zwischen Bard und den Nutzern haben. Diese Prüfer und Trainer sollen sicherstellen, dass Bard keine unangemessenen oder falschen Antworten gibt oder gegen die Nutzungsbedingungen verstößt.
Außerdem werden die Chats zwischen Bard und den Nutzern standardmäßig zum weiteren Training von Bard verwendet. Das bedeutet, dass Bard die eingegebenen Informationen immer besser verarbeiten und wiedergeben kann. Das klingt zwar gut für die Qualität von Bard, aber es birgt auch das Risiko einer sogenannten „Training Data Extraction Attack“. Das ist eine Methode, mit der man Bard dazu bringen kann, die zum Training eingegebenen Informationen im Detail preiszugeben. Das könnte zum Beispiel passieren, wenn man Bard gezielt Fragen stellt, die sich auf die eingegebenen Informationen beziehen.
Google ist nicht das einzige Unternehmen, das vor der unbedachten Nutzung von Chatbots wie Bard warnt. Auch andere Firmen wie Samsung, Apple, Amazon, Verizon, JPMorgan Chase und die Deutsche Bank haben ihren Angestellten ähnliche Anweisungen gegeben oder die Nutzung von Chatbots wie ChatGPT oder Copilot eingeschränkt oder verboten. Das zeigt, dass Chatbots zwar ein großes Potenzial haben, aber auch ein großes Sicherheitsrisiko darstellen können.
Deshalb ist es wichtig, dass Sie als Nutzer von Chatbots wie Bard verantwortungsvoll und vorsichtig handeln. Geben Sie keine vertraulichen oder persönlichen Informationen in den Chatbot ein und überprüfen Sie immer den generierten Text oder Code auf Richtigkeit und Angemessenheit. Nutzen Sie den Chatbot nur für legitime Zwecke und beachten Sie die Nutzungsbedingungen. So können Sie sich selbst und Ihr Unternehmen schützen und gleichzeitig von den Vorteilen eines virtuellen Assistenten profitieren.