Deine Daten. Deine Wahl.

Wenn du nur das Nötigste wählst, erfassen wir mit Cookies und ähnlichen Technologien Informationen zu deinem Gerät und deinem Nutzungsverhalten auf unserer Website. Diese brauchen wir, um dir bspw. ein sicheres Login und Basisfunktionen wie den Warenkorb zu ermöglichen.

Wenn du allem zustimmst, können wir diese Daten darüber hinaus nutzen, um dir personalisierte Angebote zu zeigen, unsere Webseite zu verbessern und gezielte Werbung auf unseren und anderen Webseiten oder Apps anzuzeigen. Dazu können bestimmte Daten auch an Dritte und Werbepartner weitergegeben werden.

Shutterstock
Hintergrund

AI-Act: So will die EU Künstliche Intelligenz in die Schranken weisen

Noch im Juni soll in der EU der AI-Act in Kraft treten. Er regelt verschiedene Aspekte der Entwicklung und Nutzung von Künstlicher Intelligenz. In erster Linie durch Firmen, Behörden und Forschungseinrichtungen. Was heisst das genau?

Künstliche Intelligenz (KI) wird in der Europäischen Union Regeln unterworfen. Dazu tritt noch im Juni der AI-Act in Kraft – ein Gesetz, das Rat und Parlament kürzlich verabschiedet haben. Die Regeln sollen die Gefahren von KI-Modellen in Schach halten.

Bis das Gesetz in allen Facetten umgesetzt ist, dauert es bis zu zwei Jahre. Allerdings gibt es für einzelne Ausnahmen kürzere, aber auch längere Übergangsfristen.

Der AI-Act in aller Kürze

Das Gesetz geht von einem risikobasierten Ansatz aus. Das bedeutet: Je höher das, dass die Anwendung eines Modells Menschen schaden können, desto höher ist die Hürde, dass es benutzt werden darf. Allerdings gibt es gewisse Ausnahmen. So zum Beispiel für Strafverfolgungsbehörden. Darüber sind Datenschützer und Menschenrechtsgruppen gar nicht erfreut.

Wie funktioniert der Risikoansatz?

Es gibt drei Risikogruppen (eigentlich vier, wobei die zwei tiefsten zusammengefasst werden):

Ein unannehmbares Risiko

KI-Anwendungen gelten gemäss Artikel 5, Nummer 1 als «unannehmbar riskant», wenn sie:

  1. menschliches Verhalten manipulieren
  1. einem Verhalten oder einer Charakteristik eines Menschen einen Wert zuweisen (Social Credit / Social Scoring)
  1. menschliche Schwächen oder Schutzbedürftigkeit ausnutzen
  1. in Echtzeit öffentliche Systeme erkennen und so eine biometrische Identifizierung eines Menschen ermöglichen.

Ein hohes Risiko (Hochrisiko-KI-Systeme)

Als KI-System mit hohem Risiko gelten Modelle, die eine erhebliche Gefahr für Gesundheit, Sicherheit oder Grundrechte darstellen. Zum Beispiel Systeme, die im Strassenverkehr eingesetzt werden, in Krankenhäusern, bei der Strafverfolgung oder im Bankwesen (und viele mehr).

Ein geringes oder minimales Risiko

Ob und wie sich KI-Modelle mit geringem oder minimalem Risiko definieren, erfährst du im AI-Act unter Artikel 52. Es sind Systeme, die mit Menschen interagieren oder Inhalte erzeugen.

Darunter fallen beispielsweise Chatbots, In-Game-KI, Spamfilter, Suchalgorithmen und Deep Fakes. Letztere müssen aber als solche gekennzeichnet werden. Wenn solche Systeme mit Personen interagieren, muss der Person das bekanntgegeben werden. Beispiel: Verwendet ein Online-Shop ChatGPT für Support-Angelegenheiten, muss im Chatfenster klar stehen, dass du nicht mit einem Menschen, sondern mit einer KI sprichst.

Übrigens: Falls du für ein Unternehmen an einem AI-Modell arbeitest, kannst du durch einen Fragebogen herausfinden, in welche Kategorie das Modell eingeteilt werden könnte. Danach siehst du die Verpflichtungen und wie bald nach Einführung des AI-Acts du diesen Folge leisten musst.

Wie genau definiert die EU Künstliche Intelligenz

Die EU fasst die Definition von KI ziemlich weit. Sie gilt nicht nur für Large Language Models wie ChatGPT oder Gemini. In einem 18-seitigen Dokument steht ausführlich, was alles dazu zählt.

Ich erspare dir die Lektüre und liste dir die definitorischen Merkmale auf. Eine Software gilt als Künstlichen Intelligenz, wenn sie:

  1. Konzepte des Machine- oder Deep Learnings nutzt ODER
  1. Logik- und wissensgestützte Konzepte nutzt ODER
  1. Statistische Ansätze, Schätz-, Such- und Optimierungsmethoden beherrscht

um damit

  1. von Menschen festgelegte Ziele zu verfolgen ODER
  1. Ergebnisse oder Inhalte prognostiziert oder empfiehlt ODER
  1. ihr Umfeld beeinflusst

Wer muss sich an diesen AI-Act halten?

Wer prüft, ob das Gesetz eingehalten wird?

Zunächst sind die einzelnen Mitgliedsstaaten dafür verantwortlich, dass der AI-Act befolgt wird. Diese sind verpflichtet, Aufsichtsbehörden zur Überwachung einzurichten. Ausserdem gibt es auf EU-Ebene das Amt für Künstliche Intelligenz. Dieses arbeitet mit den nationalen Behörden zusammen und koordiniert etwa gemeinsame Aktionen.

Bei Verstössen im Hochrisikobereich legt die EU die Bussengrenze bei 15 Millionen oder drei Prozent des Jahreseinkommens fest. Die Übermittlung von Falschinformationen kostet darüber hinaus bis zu 7,5 Millionen Euro oder ein Prozent des Jahresumsatzes.

Wie geht es nun weiter?

Dieser Tage tritt der AI-Act in Kraft. Binnen zwei Jahren danach sind alle Fristen abgelaufen und er ist vollständig anwendbar. Aber natürlich gibt es auch hier verschiedene Fristen:

  1. KI-Systeme mit unannehmbaren Risiko werden binnen sechs Monaten verboten und dürfen dann nicht mehr verwendet werden. Also zum Ende des Jahres 2024.
  1. Für KI-Systeme im Allgemeinen gelten die Anwendungsregeln nach 12 Monaten. Darunter fallen etwa ChatGPT oder Google Gemini.
  2. Bei KI-Systemen, die als Hochrisiko eingestuft werden und die heute schon existieren, dauert es länger. Dort greift der AI-Act erst nach 36 Monaten, weil die Anpassung gemäss EU länger dauern und heikler sind.

Die zuvor erwähnten KI-Aufsichten und die entsprechende Struktur müssen die EU-Staaten 12 Monate nach dem Inkrafttreten etabliert haben.

Jedes Jahr – auch nach Ablauf der Fristen – kontrolliert die EU-Kommission, ob sie an der Kategorisierung oder sonst am Gesetz etwas ändern müssen. Schliesslich entwickelt sich KI rasant weiter.

Titelbild: Shutterstock

33 Personen gefällt dieser Artikel


User Avatar
User Avatar

Seit ich herausgefunden habe, wie man bei der ISDN-Card beide Telefonkanäle für eine grössere Bandbreite aktivieren kann, bastle ich an digitalen Netzwerken herum. Seit ich sprechen kann, an analogen. Wahl-Winterthurer mit rotblauem Herzen.


Hintergrund

Interessantes aus der Welt der Produkte, Blicke hinter die Kulissen von Herstellern und Portraits von interessanten Menschen.

Alle anzeigen

Diese Beiträge könnten dich auch interessieren

  • Hintergrund

    Was ist der Digital Networks Act?

    von Florian Bodoky

  • Hintergrund

    Mikrotransaktionen in Games: Die neuen EU-Richtlinien erklärt

    von Florian Bodoky

  • Hintergrund

    Gegen Fake News und Co: Was ist eigentlich der Digital Services Act?

    von Florian Bodoky