27. 01. 2026

Wie Vertrauen in der Mensch-KI-Interaktion entsteht

KI-Systeme werden immer leistungsfähiger. Das Vertrauen in sie hängt jedoch selten von der Qualität eines Modells ab. Entscheidend ist, wie verständlich, vorhersehbar und kontrollierbar die Interaktion für Menschen wirkt. An jeder Ecke begegnet uns der Grundsatz: KI trifft die Vorentscheidungen, Menschen tragen die Verantwortung. Dazwischen entsteht aber ein Spannungsfeld, das wir bewusst gestalten müssen. Vertrauen ist also Aufgabe und Ergebnis von Interface Design.

Wie Vertrauen im Interface entsteht

Forschungsteams wie Google PAIR, Microsoft Research und die Human AI Interaction Group der University of Washington betonen übereinstimmend, dass drei Faktoren entscheidend für Vertrauen in KI sind: nachvollziehbare Gründe, die sichtbar eingeordnete Verlässlichkeit des Ergebnisses und klare Möglichkeiten zur Kontrolle. Daraus ergeben sich für User drei Fragen, bevor sie eine KI-Empfehlung übernehmen:

  1. Warum erscheint dieser Vorschlag?
  2. Wie zuverlässig ist er?
  3. Was wird passieren und kann ich darin eingreifen?

Das KI-Modell liefert Output, beantwortet diese Fragen jedoch nicht. Die Antworten müssen im Interface dort sichtbar sein, wo entschieden wird. Das lässt sich recht einfach an einer Beispiellösung zeigen.

Unser Beispiel: Automatisierte Vorschläge im Rechnungsabgleich

Unsere Beispiellösung ist für die Buchhaltung: Der KI-Assistent schlägt Zuordnungen zwischen Rechnung und Bestellung vor. Dieser Vorschlag braucht Kontext, sonst bleibt er undurchsichtig und ist damit eine Blackbox. Zur Einordnung sehen wir zuerst den Ausgangszustand, in dem die drei Leitfragen noch nicht im Interface beantwortet sind:

Grundlage

Dieses Beispiel wird im Folgenden Schritt für Schritt erweitert, bis aus einem bloßen Vorschlag ein Interface wird, dem man vertrauen kann. Starten wir also mit dem ersten Prinzip hinter unseren Leitfragen:

Warum erscheint dieser Vorschlag?

Erklärbarkeit ist am wirksamsten, wenn sie dort stattfindet, wo die Entscheidung fällt. Wir vermeiden also ausgelagerte Info-Panels und setzen kurze, prüfbare Hinweise direkt unter dem Vorschlag. Im Beispiel überprüft und visualisiert der KI-Assistent etwa die Übereinstimmung von Positionsnummer und Lieferant, ob der Preis innerhalb der Toleranz liegt und setzt Verweise auf Bestelldaten, Wareneingänge und Richtlinien. User können so die Empfehlung nachvollziehen und abgleichen, ohne den Kontext zu verlassen.

Erklärbarkeit

Wie zuverlässig ist der Vorschlag?

Eine klare Einschätzung der Verlässlichkeit ist essenziell, damit User korrekt mit dem Vorschlag umgehen. Prozentwerte wirken häufig technischer als hilfreich. Besser funktionieren Angaben wie ein Verlässlichkeitsniveau entlang einer verständlichen Skala – hoch, mittel, niedrig – oder eine kurze Begründung wie z.B. vollständige Datenlage, fehlender Wareneingang oder widersprüchliche Historie. Das schafft realistische Erwartungen und verhindert Fehlinterpretationen.

Zuverlässigkeit

Was wird passieren und kann ich darin eingreifen?

Transparenz und Kontrolle ist bei der Gestaltung von KI-Lösungen besonders wichtig. KI-Unterstützung muss für User vorhersehbar bleiben. Deshalb sollte die Oberfläche zeigen, was die KI tun wird, welche Auswirkungen dieser Schritt hat, wie sich der Schritt korrigieren oder Parameter anpassen lassen und dass jeder Schritt rückgängig gemacht werden kann. User müssen nicht ständig eingreifen. Aber sie müssen wissen, dass sie es können.

Transparenz

Warum diese Prinzipien Vertrauen stärken

Die drei Leitfragen sorgen dafür, dass KI-Entscheidungen nicht blind übernommen werden, sondern prüfbar, nachvollziehbar und kontrolliert sind. Das Ergebnis: Fehlbedienungen sinken, Rückfragen werden früh abgefangen und die Akzeptanz im Nutzungsalltag steigt.

Setzen wir für unser Beispiel nun unsere einzelnen Funktionen und Gestaltungselemente zusammen, erweckt die Interaktion wahres Vertrauen:

Gesamt

Ich als Designer sehe die Furcht vor einer Blackbox als größtes Hindernis für das Vertrauen in KI-Lösungen. Menschen übernehmen KI-Vorschläge erst, wenn klar ist, woher die generierten Informationen stammen und warum sie plausibel sind. Deshalb behandle ich KI-Vorschläge wie jede andere Informationsquelle, die überprüfbar sein muss. Genauso wichtig ist es, die Sorge zu verstehen, dass KI über den Menschen hinweg agieren könnte. Das Interface soll daher spürbar machen, dass der KI-Assistent mit und für den Menschen arbeitet.

Vertrauen in KI-Systeme ist kein abstraktes Ziel, sondern eine konkrete Gestaltungsaufgabe die mit der begründeten Entscheidung, sich auf das Ergebnis zu verlassen, belohnt wird. Wenn ein Interface erklären kann, warum ein Vorschlag erscheint, wie verlässlich er ist und was als Nächstes damit passiert, werden technische Prozesse nachvollziehbar übersetzt und veranschaulicht - egal wie komplex die KI im Hintergrund arbeitet.

Fynn Krauß
von Fynn Krauß
Digital Experience Design

Kontakt

D‑LABS GmbH
info@d-labs.com
Marlene-Dietrich-Allee 15
14482 Potsdam
+49 331 97 992 300
potsdam@d-labs.com
Matkowskystraße 2
10245 Berlin
+49 30 29 387 978
berlin@d-labs.com
Königstraße 21
70173 Stuttgart
+49 711 99 796 266
stuttgart@d-labs.com