Behörden warnen

"Rasanter Anstieg" an Beschwerden über Chatbots

Niederländische Behörden fordern mehr menschlichen Kontakt im Kundenservice und warnen vor steigender Frustration durch KI-Chatbots.
Digital  Heute
04.10.2025, 14:22
Loading...
Angemeldet als Hier findest du deine letzten Kommentare
Alle Kommentare
Meine Kommentare
Sortieren nach:

Kommentare neu laden
Nach oben

In den Niederlanden haben die Behörden Unternehmen und Organisationen aufgefordert, bei der Kommunikation mit Kundinnen und Kunden nicht nur auf Chatbots zu setzen. "Organisationen, die Chatbots in ihren Diensten einsetzen, müssen den Menschen immer die Möglichkeit bieten, mit einem Mitarbeiter zu sprechen", erklärte die niederländische Datenschutzbehörde AP am Donnerstag.

Auch die Verbraucherbehörde ACM meldete sich zu Wort. Ihre aktuellen Untersuchungen zeigen, "dass der Mangel an menschlicher Interaktion im Kundenservice eines der größten Ärgernisse ist".

Laut ACM gibt es einen "rasanten Anstieg" an Beschwerden über Chatbots. Die Behörden haben daher an die EU-Kommission appelliert, klare Regeln für den Einsatz von KI-gesteuerten Chatbots zu erstellen.

"Weg zu menschlichen Inhalten verblasst"

Die Datenschutzbehörde AP äußerte Bedenken wegen der immer größeren Zahl an Bots, die mit Künstlicher Intelligenz arbeiten. Diese würden oft den Erstkontakt übernehmen, "und der Weg zu menschlichen Inhalten verblasst", so die Aufsichtsbehörde in einem neuen Bericht. Immer ausgeklügeltere Chatbots führen dazu, dass viele Menschen gar nicht mehr wissen, ob sie mit einem Menschen oder einer Maschine sprechen, heißt es weiter.

Nach einer ersten unbefriedigenden Erfahrung werden viele Kundinnen und Kunden nicht zu einem Menschen weitergeleitet, sondern landen beim nächsten Chatbot – das sorgt für noch mehr Frust. Unternehmen müssen daher sicherstellen, dass die Leute wissen, dass sie mit einer Maschine sprechen. Außerdem sollen die Chatbots keine ausweichenden oder falschen Antworten geben, fordert die AP.

{title && {title} } red, {title && {title} } Akt. 04.10.2025, 14:29, 04.10.2025, 14:22
Jetzt E-Paper lesen