Künstliche Intelligenz (KI) nimmt im Kundenservice inzwischen eine wichtigere Rolle ein, als noch vor zwei Jahren zu vermuten gewesen wäre. Unternehmen setzen vermehrt auf intelligente Systeme, um ihre Effizienz zu steigern, Kunden besser zu betreuen und innovative Lösungen anzubieten. Durch den Einsatz von Voicebots und Chatbots, automatisierten Spracherkennungssystemen und personalisierten Empfehlungsalgorithmen können Unternehmen rund um die Uhr schnellen, persönlichen und maßgeschneiderten Service bieten. Darüber hinaus trägt KI durch die kontinuierliche Analyse großer Datenmengen zur Verbesserung der Kundenerfahrung bei, indem sie Trends identifiziert und Angebote sowie Dienstleistungen optimiert. Doch neben den Chancen und Potenzialen birgt der KI-Einsatz auch Risiken und wirft eine Menge Fragen auf.
Gesetzgebungspaket als Produkthaftungsgesetz
Die fortschreitende Digitalisierung hat nicht nur die Interaktion zwischen Unternehmen und Kunden verändert, sondern auch die Rolle von KI in diesem Prozess. Mit der KI-Verordnung durch die Europäische Union rückt dieser Bereich nun noch stärker in den Fokus. Die KI-Verordnung ist ein Gesetzgebungspaket, das die Europäische Union als Reaktion auf die rasante Entwicklung und den Einsatz von KI in verschiedenen Branchen und Lebensbereichen eingeführt hat. Es handelt sich um eine bedeutende gesetzliche Initiative der EU zur Regulierung von KI-Technologien. Ihr Ziel ist es, klare Richtlinien für den Einsatz von KI zu schaffen, um Innovationen zu fördern und gleichzeitig die Rechte und Interessen der Bürger zu schützen. Die Verordnung zielt darauf ab, vertrauenswürdige KI zu fördern und Risiken anzugehen, indem sie klare Anforderungen und Pflichten für Entwickler, Anbieter und Nutzer von Künstlicher Intelligenz festlegt.
Da die KI-Verordnung vor allem die Anwendung und den Betrieb von KI-Systemen reguliert und nicht die Forschung und Entwicklung dieser Systeme, ist diese Verordnung in erster Linie ein Produkthaftungsgesetz. Zusammen mit der Überarbeitung der Produkthaftungsrichtlinie und der KI-Haftungsrichtlinie werden Unternehmen in die Pflicht genommen, die Compliance-Anforderungen, insbesondere beim Einsatz von Hochrisiko-KI-Systemen, gewissenhaft wahrzunehmen.
Kernpunkte und Risiko-Kategorien
Mit der Verordnung werden KI-Systeme und ihre Entwicklung in verschiedene Risiko-Kategorien in Bezug auf den Schutz der Grundrechte und der Menschenwürde eingeteilt, von minimal bis inakzeptabel. Regulierung und Anforderungen variieren entsprechend der Risikostufe. Bestimmte Anwendungen, die als besonders riskant oder schädlich erachtet werden, sind schlicht verboten. Daneben gibt es so genannte Hochrisiko-KI-Systeme, die zwar nicht verboten sind, für die aber strenge Anforderungen an Transparenz, Nachvollziehbarkeit und Überwachung gelten.
Zu den Kernpunkten der KI-Verordnung gehören Transparenzanforderungen, Risikobewertungen, Haftungsregelungen und ethische Grundsätze. Unternehmen, die KI im Kundenservice einsetzen, sollten sich daher lieber früher als später mit den Bestimmungen der KI-Verordnung vertraut machen und sicherstellen, dass ihre Systeme den Anforderungen entsprechen. Die Verordnung zielt darauf ab, spezifische Risiken anzugehen, inakzeptable Praktiken zu verbieten und Hochrisiko-Anwendungen zu regulieren. Betroffen vom EU AI Act werden alle Unternehmen sein, die KI in ihren Geschäfts- und Entscheidungsprozessen einsetzen. Da in den Geschäftsprozessen im Kundenservice Verbraucher bzw. Bürger direkt mit KI interagieren, werden diese Bereiche besonders im Fokus stehen. Das Ziel der KI-Verordnung ist es, einen ausgewogenen und verantwortungsvollen Einsatz von KI zu fördern, der sowohl die Innovation und Wettbewerbsfähigkeit der EU-Mitgliedstaaten stärkt als auch die Grundrechte und -werte schützt.
EU AI Act: Erklärung, Ziele, Schlüsselbestimmungen
Die KI-Verordnung ist ein Gesetzesvorschlag der Europäischen Kommission, der klare Regeln und Verpflichtungen für Entwickler, Anbieter und Nutzer von KI innerhalb der EU festzulegen. Er zielt darauf ab, spezifische Risiken anzugehen, unakzeptable Praktiken zu verbieten und Hochrisiko-Anwendungen zu regulieren. So genannte Hochrisiko-KI-Systeme umfassen verschiedene Technologien, die in kritischen Bereichen eingesetzt werden, wie z. B. kritische Infrastrukturen, Bildung, Sicherheit von Produkten, Beschäftigung, wesentliche Dienstleistungen, Strafverfolgung und Verwaltung von Justiz und demokratischen Prozessen. Bevor ein Hochrisiko-KI-System auf den Markt gebracht wird, müssen strenge Anforderungen erfüllt werden, einschließlich angemessener Risikobewertung und -minderung, hochwertiger Datensätze, menschlicher Aufsicht und hoher Robustheit, Sicherheit und Genauigkeit.
Zeitplan für Umsetzung und Compliance
Am 13. März 2024 hat das EU-Parlament nach einem rund dreijährigen Gesetzgebungsverfahren die KI-Verordnung mit großer Mehrheit beschlossen. Ein allgemeiner Übergangszeitraum von 2 Jahren nach Inkrafttreten der Verordnung ist vorgesehen. Dennoch werden einzelne Bestimmungen gestaffelt inkraft treten. Beispielsweise soll das Verbot von KI-Systemen mit inakzeptablen Risiken bereits 6 Monate – das heißt noch innerhalb des Übergangzeitraumes - nach Inkrafttreten gelten und Regelungen und Verpflichtungen für General Purpose AI (GPAI) bereits nach 12 Monaten.
Kategorisierung von KI-Systemen
Ein zentraler Aspekt der KI-Verordnung ist die Kategorisierung von KI-Systemen, basierend auf ihrem Risikopotenzial für Grundrechte und Menschenwürde. Der Rechtsrahmen der KI-Verordnung legt insgesamt vier Risikostufen fest:
Inakzeptable Risiken
Hohe Risiken
Begrenzte Risiken
Minimale Risiken/Kein Risiko
Inakzeptable Risiken: KI-Systeme dieser Kategorie werden schlicht verboten. Bereits existierende KI-Systeme innerhalb der EU müssen vom Markt genommen werden. Dies betrifft alle KI-Systeme, die als Bedrohung für Sicherheit, Lebensunterhalt und Rechte von Menschen angesehen werden.
Hierzu gehören KI-Systeme, die unterschwellige oder manipulative Techniken einsetzen, um das Verhalten von Personen wesentlich zu beeinflussen und deren Fähigkeit zur informierten Entscheidungsfindung zu beeinträchtigen. Denn dies kann zu erheblichem Schaden führen oder Schwächen bestimmter Personengruppen (basierend auf Alter, Behinderung oder sozialer/wirtschaftlicher Situation) ausnutzen, um deren Verhalten zu beeinflussen und Schaden zuzufügen. Ebenfalls betroffen sind biometrische Kategorisierungssysteme, um Personen basierend auf sensiblen Merkmalen wie Rasse, politischen Ansichten oder sexueller Ausrichtung zu kategorisieren, sowie KI-Systemen zur Bewertung oder Klassifizierung von Personen basierend auf Sozialverhalten oder persönlichen Merkmalen, wenn dies zu ungerechtfertigter Benachteiligung führt (Social Scoring Systeme). Biometrische Fernidentifizierungssysteme gelten als risikobehaftet und sind demnach untersagt, außer in bestimmten Fällen, wie der Suche nach vermissten Kindern oder zur Bekämpfung von Terrorismus. Die Nutzung erfordert eine Genehmigung durch unabhängige Stellen und ist mit klaren Einschränkungen verbunden.
Außerdem verboten werden KI-Systeme zur Risikobewertung von Personen bezüglich der Vorhersage von Straftaten ausschließlich aufgrund von Persönlichkeitsprofilen. Ebenfalls verboten sind KI-Systeme zur Erstellung oder Erweiterung von Gesichtserkennungsdatenbanken durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder Videoüberwachungsaufnahmen sowie KI-Systeme zur Ableitung von Emotionen von Personen in Arbeitsplatz- und Bildungseinrichtungen, es sei denn, dies erfolgt aus medizinischen oder sicherheitstechnischen Gründen.
Hohe Risiken: Hochrisiko-KI-Systeme umfassen KI-Systeme, die in festgelegten Bereichen wie u.a. kritische Infrastrukturen, Bildung, Personalwesen oder Strafverfolgung eingesetzt werden, sofern bestimmte Kriterien erfüllt sind. KI-Systeme mit hohem Risiko sind nicht verboten, aber sie erfordern die Einhaltung strenger Auflagen. Dies betrifft nicht nur Unternehmen, die diese Systeme entwickeln, sondern auch solche, die sie vertreiben oder anwenden. Dies wird auch Unternehmen betreffen, die ihren Mitarbeitenden solche KI-Systeme zur Arbeitserleichterung zur Verfügung stellen.
Hochrisiko-KI-Systeme müssen umfassende Anforderungen erfüllen, noch bevor sie auf den Markt gelangen können. Dazu gehören angemessene Risikobewertungs- und -minderungsverfahren, hochwertige Datensätze, Protokollierung von Aktivitäten, detaillierte Dokumentation, klare Anweisungen für den Gebrauch, menschliche Überwachung sowie hohe Robustheit, Sicherheit und Genauigkeit. Umfassende Unterlagen mit relevanten Informationen über das System und seinen Zweck sind erforderlich, um Behörden die Bewertung der Einhaltung zu erleichtern.
Klare und verständliche Informationen müssen auch für die Benutzer bereitgestellt werden. Vor allem ist eine angemessene menschliche Aufsicht entscheidend, um das Risiko zu minimieren. Nur wenn diese Kriterien erfüllt sind, kann ein Hochrisiko-KI-System verantwortungsvoll auf den Markt gebracht werden.
Begrenztes Risiko: Ein begrenztes Risiko betrifft die potenziellen Gefahren, die mit der intransparenten Nutzung von KI verbunden sind. Die KI-Verordnung setzt klare Transparenzstandards, um sicherzustellen, dass Menschen stets informiert sind und Vertrauen aufbauen können. Beispielsweise sollten Nutzer bei der Interaktion mit KI-Systemen, wie etwa Chatbots, darauf hingewiesen werden, dass sie mit einer Maschine kommunizieren. So können Sie eine informierte Entscheidung darüber treffen, ob sie den Dialog fortsetzen möchten oder sich zurückziehen.
Anbieter sind auch verpflichtet sicherzustellen, dass KI-generierte Inhalte eindeutig als solche identifizierbar sind. Darüber hinaus müssen KI-generierte Texte, die veröffentlicht werden, deutlich als „künstlich generiert“ gekennzeichnet werden. Dies gilt auch für Audio- Bild- und Videoinhalte.
Minimales oder kein Risiko: Die KI-Verordnung erlaubt die freie Nutzung von KI mit minimalem oder ohne Risiko, dazu zählen beispielsweise Anwendungen wie KI-gesteuerten Videospiele oder Spamfilter.
Die gute Nachricht an dieser Stelle: Die große Mehrheit der derzeit in der EU verwendeten KI-Systeme gehört vermutlich in die Kategorie "Minimales oder kein Risiko". Das bezieht sich auch auf den Kundenservice. Nach aktuellem Kenntnisstand gibt es derzeit keine KI-Systeme in der Kundenkommunikation, die der Stufe “inakzeptable Risiken” zuzuordnen wären.