Sonntag, Mai 5, 2024

Das böse Büro

Uriel Fanellis Blog in deutscher Sprache

Uriel Fanelli

Ich habe das AI-Gesetz gelesen (Sie müssen es also nicht tun).

Seit ihrer Einführung habe ich mir am Wochenende ein paar Stunden Zeit genommen, um die berühmte europäische Verordnung zu lesen. Wenn Sie es auch tun möchten, finden Sie es hier: https://artificialintelligenceact.eu , aber ehrlich gesagt ist es Zeitverschwendung.

Ich könnte es einfach so ausdrücken: Ein Gesetz, das aufgrund der Panik, die das Aufkommen von ChatGPT ausgelöst hat, in Eile erlassen wurde, hält es tatsächlich für völlig legal, und in Bezug auf die Urheberrechtsfrage heißt es, dass die Verpflichtungen zur Zahlung solcher Lizenzgebühren erlöschen, wenn sie das verwenden arbeitet daran, Algorithmen zu trainieren.

Und nicht nur das: Das KI-Gesetz scheint überhaupt nicht das Bestehende zu sanktionieren, sondern nur ein hypothetisches Risiko, dass etwas passiert, was bisher nur in Science-Fiction-Filmen passiert ist.

Darüber hinaus sanktioniert es den Einsatz von KI in Bereichen, in denen KI nicht benötigt wird. Zum einen die Geschichte des Sozialkredits. Sie befürchten, dass KI zur Berechnung des Sozialkredits eingesetzt wird, aber eine große Datenbank reicht dafür aus, man braucht nicht unbedingt KI. Die Stasi schaffte es sehr gut mit elektrischen Drehfeilen, die von der Gestapo übernommen und von IBM entwickelt wurden (eigentlich nur drei Modelle).

Aber gehen wir der Reihe nach vor.


Die Klassifizierung von KIs basiert zunächst nicht auf Fakten. Jemand hat davon geträumt, dass KI für das Social Scoring verwendet wird, und das ist auch so. Bisher wurde kein Beispiel für soziales Scoring beobachtet, bei dem KI zum Einsatz kam, das Dossier war ausreichend und machte Fortschritte.

Wir haben also eine Kategorie, die des „Inakzeptablen Risikos“, wir nehmen nur das Beispiel des Social Scoring und verweisen die Leute dann auf den Anhang. Das sagt uns etwas über das hohe Risiko, aber nicht über das „Inakzeptable“. Das Wort wird im Anhang nicht einmal erwähnt (sehen ist glauben: https://artificialintelligenceact.eu/annexes/ ).

Es wird von Social Scoring gesprochen, sowohl im staatlichen als auch im unternehmerischen Sinne. Aber das gab es schon immer, und es wurde noch nie mit künstlicher Intelligenz gemacht.

Bevor ich zum Punkt komme, möchte ich Sie daher warnen: Die gesamte Lektüre scheint sich auf den Einsatz von KI zur Datenverwaltung, zum Sammeln von Daten und zum Produzieren von Daten zu konzentrieren. Da wir jedoch darüber sprechen, was mit den Daten geschehen soll, sollten diese Teile unter „Daten“ abgelegt werden. Wenn man nur die DSGVO kennt, scheint alles eine Selbstverständlichkeit zu sein.


Was an dieser Verordnung jedoch heraussticht, ist nicht der Stand, in dem wir uns befinden. Es ist das, worauf wir NICHT stehen.

Das erste, was Sie in diesem Regelwerk NICHT finden, ist ein Wort über den Einsatz von KI zur Herstellung von Waffen, im Krieg oder für militärische Zwecke.

Für ein Gesetz, das verhindern soll, dass superintelligente Waffen außer Kontrolle geraten, finde ich diesen Mangel interessant. Kein Waffensystem oder militärischer Apparat ist reguliert.

Grundsätzlich ist nicht nur Skynet legal, sondern auch der Bau eines Terminators.

Joyaaaaaa!

Der zweite Punkt, der NICHT in dieser Richtlinie enthalten ist, ist die Abmilderung von Urheberrechtsbedenken. Es heißt, dass KIs transparenter sein sollten (aber es gibt immer noch keine verständlichen KIs) und dass KIs offenbaren sollen, was sie inspiriert hat (was nutzlos ist, da die Datenpakete zu groß und komplex sind, als dass ein Mensch etwas tun könnte). darüber).

Als Drittes fehlt jegliche Vorsorge gegen Fake News, Online-Hass oder die Produktion von Propagandatexten in Form von Bots.


Letztendlich bewirkt die KI-Aktion in ihrer nutzlosen Ausdrucksweise drei Dinge:

  1. Es regelt den Einsatz von KI zur Datenerfassung (z. B. Biometrie mittels Computer Vision).
  2. Reguliert die Verarbeitung von Daten durch IA (z. B. kein Profiling zum Zwecke von Social Scores).
  3. Es regelt, welche Art von Daten die KI erzeugen kann (z. B. keine Kriminalitätsvorhersagen oder keine eklatanten Urheberrechtsverletzungen).

In diesem Sinne sollte es daher als Ergänzung zur DSGVO betrachtet werden, die die Erhebung, Verarbeitung und Produktion durch KI regelt, und nicht als Regelung zu KI.


Denn am Ende haben sie monatelang damit herumgespielt, dass ChatGPT die Menschheit und alles auslöscht und dann ein Gesetz erlässt, das diese Dinge nicht einmal erwähnt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert