KI Chatbots & Assistenten
Manieren für Maschinen:
Wie Chatbots gutes Benehmen lernen
Wir bauen KI Chatbots & Assistenten, denen ihr und eure Kund:innen vertrauen können.
Einen Chatbot kann man in weniger als 20 Minuten bauen…
Quellen:
DPD chatbot (The Guardian) | Car dealer chatbot (Business Insider) | Bing Chat (Ars Technica)
Aber das birgt Risiken. Nur ein professionell entwickelter und vertrauenswürdiger Chatbot schützt dein Unternehmen und deine Kund:innen vor Qualitäts- und Sicherheitsrisiken sowie vor rechtlichen Problemen.
Die Entwicklung vertrauenswürdiger KI Chatbots & Assistenten erfordert ein systematisches Risikomanagement. Bei diconium arbeiten wir mit einem Playbook für vertrauenswürdige KI-Assistenten, das auf den Erfahrungen unserer Teams sowie dem aktuellen Forschungsstand basiert.
Auf Grundlage einer systematischen Risikotaxonomie implementieren wir Strategien zur Risikovermeidung und erstellen Benchmarks und Testprotokolle, um Risiken dauerhaft zu minimieren.
Risiken und Herausforderungen für vertrauenswürdige KI Chatbots & Assistenten
Qualität & Sicherheit
Können Nutzer:innen oder Betreiber:innen des Bots durch sein Verhalten geschädigt werden? Für Betreiber:innen besteht oft ein höheres Risiko als für Nutzer:innen.
Sind die Antworten des Bots hilfreich genug? Qualitativ minderwertige Bots richten vielleicht keinen direkten Schaden an, aber sie untergraben das Vertrauen in die Technologie und letztlich auch die Wirtschaftlichkeit der KI-Investition.
IT-Security
Können böswillige Benutzer:innen den Assistenten hacken?
Es gibt spezifische Angriffsmuster, die auf Chatbots und große Sprachmodelle im Allgemeinen abzielen.
Recht
Ist der Chatbot für Betreiber:innen mit rechtlichen Risiken verbunden?
Sprachmodelle, die KI Chatbots & Assistenten antreiben, stellen Betreiber:innen vor neue rechtliche Herausforderungen – insbesondere in den Bereichen Urheberrecht und Datenschutz.
Halluzinationen
Sprachmodelle, die KI-Chatbots steuern, können Dinge „erfinden“, die plausibel klingen, aber nicht wahr sind. Die Folgen reichen von lästig bis geschäftsschädigend: Im Fall eines Kundensupport-Bots einer Fluggesellschaft, der falsche Ratschläge zu einer Rückerstattung gab, haben Gerichte zugunsten der Kund:innen entschieden.
Qualität / Sicherheit
Prompt-Injection
Ohne passende Gegenmaßnahmen können die grundlegenden Verhaltensanweisungen eines Chatbots manipuliert und so die „Persönlichkeit“ des Bots verändert werden. Dies wird genutzt, um den Bot dumme oder schädliche Dinge zu sagen zu lassen, die dann in den sozialen Medien gepostet werden und den Ruf der Betreiber:innen schädigen.
IT-Security
Urheberrecht
Sprachmodelle, die KI-Chatbots steuern, sind auf große Mengen von Trainingsdaten angewiesen. Möglicherweise wurden nicht alle dieser Daten vorher lizenziert, was bereits zu mehreren Rechtsstreitigkeiten geführt hat, z. B. zwischen den New York Times und OpenAI. Auch wenn manche Anbieter:innen versprechen, ihre Kund:innenen vor Rechtsstreitigkeiten über geistiges Eigentum zu schützen, handelt es sich hier um juristisches Neuland.
Recht
Chatty Bots
Ein KI-Chatbot sollte die Konversation mit Nutzer:innen auf die Themen beschränken, für die er entwickelt wurde. Wird dies nicht aktiv erzwungen, wird der Chatbot leicht zu einem generischen KI-Assistenten, der hohe Betriebskosten verursacht.
Qualität / Sicherheit
Prompt Leaking
Mit speziellen Prompts können Hacker:innen einen Chatbot dazu bringen, seine vertraulichen Verhaltensanweisungen, auch bekannt als „system prompt“, preiszugeben und so zu verraten, wie ein Unternehmen über seine KI und seine Kund:innen denkt.
IT-Security
Datenschutz
Bei der Verarbeitung personenbezogener Daten mit Chatbots, KI-Assistenten und großen Sprachmodellen ist große Vorsicht geboten. Manche Techniken zur Feinabstimmung von Chatbots machen es sehr aufwändig, Informationen zu löschen. Dies steht im Widerspruch zum Recht auf Vergessenwerden, einem integralen Bestandteil von Datenschutzvorschriften wie der DSGVO.
Recht
Mehrsprachigkeit
Sprachmodelle, die KI-Chatbots steuern, sind auf große Mengen von Trainingsdaten angewiesen. Für Sprachen mit weniger Daten ist die Leistung und Qualität oft deutlich schlechter als in Englisch. Ein mehrsprachiger Chatbot muss vor seinem Einsatz sorgfältig in allen Sprachen evaluiert werden.
Qualität / Sicherheit
Fluchende Bots
Dank des „Alignment“-Prozesses fluchen oder beleidigen Chatbots ihre Nutzer:innen nicht von selbst. Mit Angriffen wie Prompt Injection können Hacker:innen jedoch die Sicherheitsvorkehrungen außer Kraft setzen, das Verhalten des Bots verändern und rufschädigendes Verhalten provozieren.
IT-Security
Lass uns deine individuellen Risiken bewerten
KI Chatbots & Assistenten in der Praxis
KI-Chatbots lösen das Versprechen eines automatisierten 24/7-Kundensupports ein. Im Gegensatz zu den oft eher lästigen Prä-KI-Bots sind sie tatsächlich in der Lage, Anfragen zu verstehen, relevante Informationen wie das betroffene Produkt zu extrahieren, hilfreiche Antworten zu formulieren und einen Dialog zu führen. KI-Chatbots ermöglichen einen nie dagewesenen Grad an Automatisierung und Kosteneffizienz.
Wer sich an den Support wendet, ist wahrscheinlich bereits unzufrieden. KI ist nur dann hilfreich, wenn sie den richtigen Ton trifft und eine höfliche, angemessene Sprache verwendet. Ein Support-Bot sollte niemals Fakten erfinden („halluzinieren“) und muss vor Hackerangriffen geschützt werden.
KI-Chatbots können deinen Kund:innen eine effektive dialogbasierte Produkthilfe bieten. Anstatt auf FAQs, PDF-Handbücher und Wissensdatenbanken zu verweisen, beantwortet ein Produkthilfe-Bot die Frage von Benutzer:innen direkt, indem er genau diese Informationen nutzt. Das verbessert die Kundenzufriedenheit und verringert die Anzahl der Anfragen an den Kundensupport.
Die Produkthilfe muss korrekte und gezielte Lösungen bieten. Die Vermeidung von Fehlinformationen („KI-Halluzinationen“) ist der Schlüssel zur Zufriedenheit deiner Kund:innen, ebenso wie der richtige Tonfall und die Verwendung einer angemessenen Sprache.
KI-Assistenten und KI-basierte Suche sind eine effizienzsteigernde Ergänzung zu deinem Intranet (Sharepoint, Confluence, …). Ein KI-Assistent kann Fragen direkt beantworten und relevante Informationen gezielter finden als die klassische Stichwortsuche. Das steigert Effizienz und Teamzufriedenheit.
Wie ein externe Produkthilfe-Bot muss auch ein interner Assistent falsche Informationen („KI-Halluzinationen“) vermeiden und den richtigen Tonfall sowie die passende Sprache treffen. Wenn Mitarbeitende eine nutzlose KI ablehnen, verwandelt sich die Investition in verlorene Kosten.
Ein KI-Chatbot ist ein Verkaufsassistent, der Informationen über Produkte liefert und deren Vorteile anpreist. Er tritt in einen Dialog und fragt Kund:innen nach ihren Vorlieben, um Produkte gezielt und personalisiert zu präsentieren. Gleichzeitig sammelt er wertvolle Kundendaten, die viel umfangreicher sind als einfache Web-Tracking-Daten.
Ein KI-Verkaufsassistent darf keine Fakten über Produkte erfinden („halluzinieren“), muss den richtigen Tonfall treffen und gegen Hackerangriffe geschützt sein. Wenn er Daten sammelt, muss er mit den richtigen rechtlichen Leitplanken implementiert werden, um allen Datenschutzvorschriften zu entsprechen.
KI-Assistenten bieten eine bequeme sprachbasierte Schnittstelle für die Buchung, Stornierung und Verwaltung von Terminen und Reservierungen. Moderne KI ist besser als je zuvor in der Lage, die Absicht eines Nutzers auch bei komplexen Aufgaben zu erkennen. LLMs auf dem neuesten Stand der Technik bieten Funktionen zum Aufrufen der richtigen Backend-Dienste, um das auszuführen, was der Nutzer möchte.
Ein KI-Assistent für die Verwaltung von Terminen verarbeitet in der Regel personenbezogene Daten und muss mit den richtigen rechtlichen Leitplanken implementiert werden, um allen Datenschutzgesetzen zu entsprechen. Er muss klar kommunizieren sowie die korrekte Sprache und den passenden Tonfall verwenden.
KI-gestützte Sprachtechnologie kann eingesetzt werden, um Feedback von Kund:innen persönlicher und ansprechender zu erhalten als auf herkömmliche Weise. Sie kann deine Kund:innen buchstäblich in einem natürlichen Dialog befragen. KI kann auch bei der Auswertung von Feedback oder Umfragen eingesetzt werden und das unabhängig davon, ob die Daten über einen KI-Dialog, ein Webformular oder ein Telefoninterview erfasst wurden.
Führt eine KI Feedback-Interviews, erfordert das einen angemessenen Tonfall und höfliche, prägnante Sprache. Die KI muss beim Thema bleiben und darf sich nicht davon ablenken lassen, was Interviewpartner:innen zu sagen haben. Da sie dabei wahrscheinlich mit personenbezogenen Daten zu tun hat, gilt es, die richtigen rechtlichen Leitplanken zu implementieren, um allen Datenschutzgesetzen zu genügen.
Wir lieben Daten und reden darüber
Unser applydata-Blog ist die Plattform, auf der unsere Expert:innen ihre Sicht auf die neuesten Entwicklungen in den Bereichen Daten, KI, Regulierung sowie Business- und Service-Design veröffentlichen.
Wir sprechen auf Konferenzen und veranstalten selbst die applydata summit.
Wir sind Mitglied im KI-Bundesverband.
Wir sind Mitglied im Bitkom e.V., der mehr als 2.200 Unternehmen der digitalen Wirtschaft vertritt.
Legen wir los!
Dein Team für vertrauenswürdige Chatbots
Deine KI: Vertrauenswürdig, zertifizierungsfähig
und zukunftssicher
KI-Systeme treffen Entscheidungen. Selbst wenn ein Mensch in die Entscheidung einbezogen wird (human in the loop), ist Vertrauen in KI-Anwendungen Voraussetzung für Akzeptanz und Return on Investment.