KI-Sprachmodelle: Worauf Sie achten müssen

veröffentlicht am 13.03.2025

ChatGPT, Google Gemini, DeepSeek und Co: Chancen und Risiken

Large Language Models (LLMs) sind mittlerweile ein selbstverständlicher Teil unseres Alltags. LLMs sind fortschrittliche KI-Modelle, die auf riesigen Datenmengen trainiert wurden, um Sprache zu verstehen und zu generieren. Sie können Texte analysieren, übersetzen und Fragen beantworten. Vorsicht ist jedenfalls geboten. Diese KI-Modelle sind nicht fehlerfrei und können voreingenommene Antworten liefern. Nutzer:innen sollten daher die Antworten stets kritisch hinterfragen und in keinem Fall sensible Daten in KI-Chats eingeben.

DeepSeek auf dem Prüfstand

Besondere Aufmerksamkeit erregt derzeit das chinesische Unternehmen DeepSeek. Sein Open-Source-Sprachmodell DeepSeek R1 konkurriert mit Branchenriesen wie GPT-4. Doch die Nutzung von DeepSeek wirft erhebliche datenschutzrechtliche Bedenken auf. Das Unternehmen sammelt umfangreiche Nutzerdaten und speichert diese auf Servern in China, einem Land, das nicht als sicheres Drittland nach Vorgaben der Datenschutzgrundverordnung (DSGVO) gilt. Einige europäische Datenschutzbehörden wie Irland, Deutschland und Italien setzen sich mit dem neuen KI-Chatbot im Detail auseinander. In Australien wurde die KI-Anwendung auf allen Regierungsgeräten verboten.

Tipps und Hinweise für Nutzer:innen

LLMs bieten zweifellos viele Vorteile, doch Nutzer:innen sollten folgendes beachten:

  • Geben Sie keine sensiblen Informationen (z. B. Name, Adresse, Telefonnummer, Passwörter, Bankdaten) in KI-Chats ein und vermeiden Sie das Hochladen sensibler Dokumente.
  • Bedenken Sie, dass KI-Modelle auf großen Datenmengen trainiert werden und dadurch auch systematische Verzerrungen oder veraltete Informationen enthalten können.
  • Künstliche Intelligenz kann Fehler machen oder falsche Informationen liefern. Überprüfen Sie daher wichtige Fakten immer mit anderen vertrauenswürdigen Quellen.
  • Nutzen Sie Anbieter, die Ihnen erlauben, die Speicherung von Daten zu deaktivieren.
  • Falls der Dienst Chatverläufe speichert, prüfen Sie, ob Sie diese manuell löschen können.
  • Sensibilisieren Sie sich für die Risiken von KI-generierten Nachrichten. Solche Texte können für Phishing oder Betrug genutzt werden. 
  •  KI-Sprachmodelle ersetzen nicht die Expertise von Fachleuten, vor allem in spezialisierten Bereichen wie Medizin, Recht oder Finanzen.

Konsumentenfragen Newsletter

Aktuelle Neuigkeiten aus allen Bereichen der Konsumentenfragen