Chatbots und KI-Systeme bergen in zunehmendem Maße Gefahren für die Privatsphäre und Reputation von Einzelpersonen. Ein aktuelles Beispiel zeigt, wie schwerwiegend die Folgen solcher Fehlfunktionen sein können:
In einer Gerichtsreportage bezeichnete ein Chatbot-System fälschlicherweise einen unbescholtenen Journalisten als verurteilten Straftäter. Obwohl der Betroffene mit dem genannten Verbrechen in keinerlei Verbindung stand, verbreitete sich diese falsche Information rasant in sozialen Medien. Der Ruf des Reporters wurde erheblich beschädigt, da viele Leser die Anschuldigungen unreflektiert übernahmen.
Ein ähnlicher Vorfall ereignete sich bei einem KI-gesteuerten Anwendungssystem von Microsoft. Hier wurde ein unbescholtener Mann irrtümlich als verurteilter Kinderschänder dargestellt. Die fehlerhafte Zuschreibung konnte zwar schnell korrigiert werden, doch der entstandene Imageschaden für den Betroffenen war erheblich.
Diese Beispiele zeigen deutlich, dass Künstliche Intelligenz nicht ohne Risiken ist. Obwohl KI-Systeme zunehmend präziser und leistungsfähiger werden, können Fehler in der Datengrundlage oder Mängel in den Algorithmen zu schwerwiegenden Fehleinschätzungen und Verletzungen der Persönlichkeitsrechte führen.
Hersteller und Entwickler von KI-Anwendungen sind daher gefordert, die Systeme sorgfältig auf Fehlerquellen zu überprüfen und Vorkehrungen zum Schutz der Privatsphäre und Reputation von Bürgern zu treffen. Nur so kann das enorme Potenzial der Künstlichen Intelligenz verantwortungsvoll und im Einklang mit den Grundrechten genutzt werden.
