Verbotene KI-Praktiken

Identify AI deployments that cross the EU AI Act's red lines and must be stopped immediately.

What Is Verbotene KI-Praktiken?

Das EU-KI-Gesetz zieht klare rote Linien. Artikel 5 verbietet sechs Kategorien von KI-Praktiken gänzlich, mit den höchsten Strafen in der Verordnung: bis zu 35 Millionen Euro oder 7 % des weltweiten Umsatzes. In dieser Übung erkennen Sie verbotene Einsätze in Ihrem Unternehmen – einschließlich Emotionserkennung am Arbeitsplatz, Social Scoring von Kunden und ungezieltes Auslesen von Gesichtsbildern für biometrische Datenbanken – und ergreifen die richtigen Maßnahmen, bevor jedes System in Betrieb geht.

What You'll Learn in Verbotene KI-Praktiken

Verbotene KI-Praktiken — Training Steps

  1. Die absoluten roten Linien

    Artikel 5 des EU-KI-Gesetzes definiert bestimmte KI-Praktiken, die in der EU völlig verboten sind. Keine Ausnahmen, keine Problemumgehungen. Die Strafen für verbotene Praktiken sind die höchste Stufe des Gesetzes: bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes, je nachdem, welcher Betrag höher ist. Zu den sechs Kategorien verbotener KI gehören: Manipulative oder irreführende KI-Techniken, die das Verhalten verzerren KI, die Schwachstellen bestimmter Gruppen ausnutzt (Alter, Behinderung, soziale Situation) Social Scoring – Bewertung von Personen anhand ihres Sozialverhaltens für nicht damit zusammenhängende nachteilige Behandlung Biometrische Fernidentifizierung in Echtzeit in öffentlichen Räumen (mit engen Ausnahmen für die Strafverfolgung) Biometrische Kategorisierung nach sensiblen Attributen (Rasse, politische Meinungen, sexuelle Orientierung) Emotionserkennung am Arbeitsplatz und im Bildungsumfeld

  2. Tag 1: Die Mood-Tracker-E-Mail

    Alice erhält eine E-Mail vom Personalleiter, in der ein neues Pilotprogramm angekündigt wird. In der E-Mail wird ein KI-Tool beschrieben, das Mitarbeiter bei Videokonferenzen überwachen soll.

  3. Den Verstoß erkennen

    Hierbei handelt es sich um Emotionserkennung am Arbeitsplatz , die gemäß Artikel 5 Absatz 1 Buchstabe f des EU-KI-Gesetzes ausdrücklich verboten ist. Dabei spielt es keine Rolle, dass es sich um eine „Wellness-Initiative“ handelt oder dass die Teilnahme als freiwillig beschrieben wird. Das Verbot gilt absolut. Jedes KI-System, das am Arbeitsplatz aus biometrischen Daten (Mimik, Stimmton, Körpersprache) auf Emotionen schließt, ist verboten – unabhängig vom angegebenen Zweck, dem Grad der Anonymisierung oder der Einwilligung der Mitarbeiter.

  4. Eskalation zur Compliance

    Alice erkennt das Compliance-Risiko sofort. Sie antwortet auf Davids E-Mail, weist auf das Problem hin und kopiert den Datenschutzbeauftragten.

  5. Wissenscheck

    Bevor wir fortfahren, stellen wir sicher, dass das Konzept klar ist.

  6. Tag 3: Der Social Scorer

    Zwei Tage später erhält Alice eine WhatsApp-Nachricht von einem Kollegen über eine besorgniserregende neue CRM-Funktion, die das Vertriebsteam aktiviert hat.

  7. Social Scoring erkennen

    Alice liest Jamies Nachricht sorgfältig. Zwei Details stechen hervor: Kunden werden hinsichtlich ihrer Social-Media-Aktivitäten bewertet, und Kunden mit niedriger Bewertung werden in langsamere Support-Warteschlangen weitergeleitet.

  8. Social Scoring verstehen

    Hierbei handelt es sich um Social Scoring , das gemäß Artikel 5 Absatz 1 Buchstabe c verboten ist. Der Einsatz von KI zur Bewertung von Menschen anhand ihres Sozialverhaltens oder ihrer persönlichen Merkmale – und die anschließende Nutzung dieser Ergebnisse zur nachteiligen Behandlung dieser Personen – ist verboten. Auch wenn die Daten aus legitimen Geschäftsinteraktionen (Kaufretouren, Support-Tickets) stammen, geht die Aggregation zu einem „Vertrauenswürdigkeitswert“, der die Servicequalität bestimmt, über die Grenze. Das Verbot gilt unabhängig davon, ob das Scoring bei Bestandskunden oder Interessenten erfolgt.

  9. Tag 5: Der Gesichtsschaber

    Zwei Tage später erfährt Alice, dass das Marketingteam eine interne Tool-Demo erstellt hat. Sie öffnet es in ihrem Browser, um zu überprüfen, woran sie gearbeitet haben.

  10. Ungezieltes Schaben im Gesicht

    Das FaceWatch-Tool sammelt öffentlich verfügbare Fotos aus Social-Media-Profilen, um eine Gesichtserkennungsdatenbank aufzubauen. Gemäß Artikel 5 Absatz 1 Buchstabe e ist das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder CCTV-Aufnahmen zum Aufbau oder zur Erweiterung von Gesichtserkennungsdatenbanken ausdrücklich verboten.