Skip to main content

Egal ob bei Haushaltstipps, Recherchen oder als Tool bei der Arbeit: Chatbots wie ChatGPT sind mittlerweile unsere treuen Alltagsbegleiter, die uns bei allerlei Aufgaben unterstützen. Doch so praktisch sie auch sind, sollten wir uns bewusst machen, dass auch kostenlose KI-Chatbots uns teuer zu stehen kommen können. Oft zahlen wir einen hohen Preis, ohne es zu merken – und zwar in Form unserer Daten. Umso wichtiger ist es, den Chatbots nicht alle Informationen preiszugeben. Wir erklären, welche Geheimnisse du der KI besser nicht verraten solltest.

Auch spannend für dich:

Privates geheim halten: Namen, Adressen, Telefonnummern

Eine goldene Regel solltest du dir direkt zu Anfang für den Umgang mit KI merken: Man weiß nie, wo die Daten am Ende landen und wie sie verwendet werden. Die Entwickler der Tools versprechen zwar in der Regel, dass die Daten nirgendwo anders landen und vertraulich verarbeitet und gespeichert werden. Doch auch durch Leaks und Angriffe auf die Server können Sicherheitslücken entstehen, durch die eure Daten letztlich doch öffentlich werden. Entsprechend ist es also nicht unbedingt ratsam, Geheimnisse wie Kontaktdaten in ChatGPT oder ähnliche KI Chatbots einzugeben.

Schützenswert sind unter anderem alle Daten, die Rückschlüsse auf deine reale Identität zulassen. Dazu zählen unter anderem Namen, Adressen und Telefonnummern. Dritte können diese Daten nutzen, um mit Spearphishing oder ähnlichen Methoden gezielt Schaden anzurichten. Auch offizielle Dokumente wie den Reisepass, den Führerschein oder den Personalausweis solltest du lieber für dich behalten. Zwar kann die KI dazu Fragen beantworten, doch wenn die Bilder der Dokumente auf unbestimmte Zeit gespeichert werden, kann einiges damit passieren. Fragen solltest du dementsprechend lieber ohne Bild an Google richten.

Geheimnisse wie Login-Informationen vor der KI schützen

KI-Tools lassen sich häufig auch mit anderen Diensten verknüpfen – so können sie auch App-übergreifend helfen. Dadurch erhalten sie im Zweifel allerdings mehr Informationen über dich und deine genutzten Dienste. Die Verknüpfung selbst ist zwar in der Regel abgesichert, doch insbesondere die Login-Daten solltest du – auch aus Bequemlichkeit – nicht an die KI verraten. So soll es bereits im vergangenen Jahr einen Vorfall gegeben haben, bei dem ChatGPT offenbar einigen Nutzern die Passwörter anderer Nutzer preisgab.

Auch Konto- oder Kundennummern solltest du mit Vorsicht behandeln. Bei einem Leak besteht die Gefahr, dass Hacker die Daten etwa im Darknet verkaufen. Dann können Cyberkriminelle dein Konto angreifen, dich aussperren und ungestört in deinem Namen Schaden anrichten.

Niemals im Detail über Finanz-Daten reden

Ähnlich verhält es sich auch mit euren Finanz-Daten: Neben Kontonummern sind natürlich auch Rechnungen, Kontoauszüge, Briefe eurer Banken und anderer Finanzinstitute für ChatGPT und Co. tabu. Auf diesen Dokumenten findet man vertrauliche Informationen, die niemanden außer dich etwas angehen – zumal die Chatbots nicht dieselben Sicherheitsvorkehrungen wie Banken oder andere Institute im digitalen Raum haben.

Medizinische Informationen und Gesundheitsdaten

Eine Würzburger Studie zeigt: Aktuell sind immer noch viele Menschen skeptisch gegenüber medizinischen Ratschlägen von Chatbots. Dennoch kann es verlockend sein, statt Dr. Google auch mal ChatGPT und Co. um Rat zu bestimmten Symptomen zu bitten. Liegt die KI richtig, könnte das den Gang zum Arzt ersparen. Wer allerdings seine komplette Krankengeschichte in die Chatbots eingibt, der geht ein großes Risiko ein. Der Grund: Die Daten erlauben einen tiefgreifenden Einblick in dein Leben und sollten dementsprechend nur von medizinischem Fachpersonal und dir eingesehen werden. Wer dennoch einen Chatbot für medizinische Auskünfte benutzen möchte, sollte seine Daten weitgehend anonymisieren. Im besten Fall bleiben die Daten jedoch nur bei dir und deinen Ärzten.

Unbedingt vertraulich behandeln: Unternehmensinformationen

Da natürlich auch in vielen Jobs immer mehr KI-Tools zum Einsatz kommen, ist es kein Wunder, dass man schnell vergisst, dass diese auch am Arbeitsplatz auf Daten zugreifen können. Das ist besonders dann kritisch, wenn man der KI nicht nur Informationen über die Strukturen des Unternehmens selbst verrät, sondern auch Kundendaten preisgibt. Selbst vertrauliche Meeting-Zusammenfassungen können bei zu viel Vertrauen in KI-Anwendungen bei ChatGPT und Copilot landen, genau wie Finanz- und Kundeninfos. Davor sollten sich sowohl Arbeitgeber als auch Arbeitnehmer hüten.

Entsprechend ist es ratsam, sich bei der Einführung neuer KI-Tools in den Workflow stets im Klaren darüber zu sein, wie viele Daten dabei in die KI fließen. Arbeitgeber sollten für regelmäßige Schulungen zum Umgang mit KI sorgen, um ein umfangreiches Wissen um Cybersecurity zu gewährleisten.

Vorsicht: Illegale Aktivitäten werden möglicherweise gemeldet

Grundsätzlich sollte man natürlich nicht gegen geltendes Recht verstoßen. Aber: Selbst, wenn man auch nur im Scherz bestimmte Aktivitäten gegenüber einer KI andeuten sollte, kann es sein, dass das einen in Schwierigkeiten bringen könnte. So kann es in einigen Fällen vorkommen, dass verdächtige Anfragen im Zweifel von den Verantwortlichen an die Behörden weitergeleitet werden. Wer ChatGPT nur zum Spaß fragt, wo man beispielsweise eine Leiche verstecken könnte, der könnte unter Umständen Besuch von der Polizei erhalten.

Der Artikel hat dir gefallen? Gib uns einen Kaffee aus!

Leave a Reply