Samstag, April 20, 2024

Das böse Büro

Uriel Fanellis Blog in deutscher Sprache

Uriel Fanelli

Ist künstliche Intelligenz rassistisch?

Einer der Scheiße, den ich am häufigsten über KI höre, ist, dass es sich als rassistisch herausstellen würde. Dies könnte unbemerkt bleiben, wenn ich den Longa Manus einer bestimmten Akademie hinter diesen gefälschten Nachrichten nicht erkennen würde. Es ist also Zeit, ein paar Dinge zu klären.

Erstens ist dies die zweite Welle der KI oder vielmehr die dritte. KI kommt mit jedem großen Rechensprung zurück. Die ersten Versuche, die bis in die 1970er Jahre zurückreichen, wurden mit häufig analogen Werkzeugen unternommen, um Synapsen wie Transistoren zu simulieren. Dies liegt daran, dass in jenen Tagen die Rechenkapazität sehr gering war. Die erste Welle war daher hauptsächlich theoretisch, und die Hauptanwendungen lagen hauptsächlich im Bereich der "Fuzzy-Logik", die zu dieser Zeit als intelligent angesehen wurde. Typischerweise handelte es sich um Steuerungssysteme (Bremsen für Züge und andere), die unter Verwendung digitaler Komponenten "quantitativ" argumentieren konnten.

Die zweite Welle kam ungefähr 20 später, in den 90er Jahren, zurück. Und hier begannen sie, die Schönheit der ersten neuronalen Netze Back Propagation, der "genetischen" Algorithmen (basierend auf einem Algorithmus, der die natürliche Selektion reproduzierte), der inferentiellen Dichotomisierer jeder Ordnung (heute "Entscheidungsbaum" genannt) in den Kohonen-Netzen zu entdecken (die heute in der Welt der Big Data als "Clustering-Algorithmen" bezeichnet werden, und es gibt viele andere usw.).

Woran lag es? Dies war auf die Einführung der ersten Supercomputersysteme zurückzuführen, die sich die Universitäten leisten konnten, dh erneut auf einen Quantensprung im Bereich der Rechenkapazität. Da war der GigaFLOP. BEEINDRUCKEND.

Anwendungen waren schlecht und selten und vor allem beim Militär: Schießanpassungssysteme für Kanonen, die ihre Eigenschaften mit dem Verschleiß ändern, Flugkorrektursysteme für Überschalljets und wenig anderes von Bedeutung. Okay, Apples Newton hat ein Handschrifterkennungssystem implementiert. Seien wir ehrlich. Hier machen wir also auch Zivilisten glücklich. Der Rest war experimentell, dh auf den akademischen Bereich beschränkt.

Die heutige Welle ist teilweise auf einen neuen Paradigmenwechsel in der Rechenleistung und auf eine neue Leichtigkeit beim Aufbau von Ad-hoc-ASICs zurückzuführen, da sie Ihnen sagen, dass in Ihrem Mobiltelefon "ein KI-Chip vorhanden ist". OK. Jetzt entwickeln sich Faltungsmodelle, rekursive Netzwerke und viele andere Technologien auf unbestimmte Zeit.

Aber es gibt noch einen zweiten Punkt, auf den niemand hinweist: In dieser Welle treiben Wissenschaftler die Forschung nicht mehr voran. Wenn Sie den Stand der Technik finden möchten, können Sie ihn nicht mehr an Universitäten finden. Aus verschiedenen Gründen.

  • Das akademische Forschungsbudget ist im Vergleich zu Google & Co. mikroskopisch klein.

  • Die Rechenkapazität der akademischen Welt ist im Vergleich zu Google & Co. mikroskopisch klein.

  • Die Attraktivität des Arbeitsplatzes im akademischen Bereich ist im Vergleich zu Google & Co. mikroskopisch gering.

In der Praxis ist die akademische Welt in dieser Welle der KI abgeschnitten: Sie hat nicht die Mittel, sie hat nicht die Infrastruktur, sie hat nicht mehr die besten Köpfe. Ja, viele Universitäten arbeiten mit diesem und jenem zusammen, aber wenn wir sehen, wie "kubanisch" wir sind, stellen wir fest, dass dies Dinge sind, die "für die Show" gemacht wurden, aber am Ende bleibt das Patent, das das Know-how ist große Industrien.

Kein Wunder, denn das Gleiche geschah im Pharmageschäft.

Was macht die Akademie, wenn sie bestanden wird? Er setzt all seine Macht und Glaubwürdigkeit ein, beginnt, Zeitungen und das Internet zu infizieren, und dann stellen wir fest, dass Robotik Skynet macht, dass künstliche Intelligenz uns alle töten wird, und jetzt haben wir entdeckt, dass "es rassistisch ist ".

Ballen.

Sobald große Unternehmen Projekte "in Zusammenarbeit" mit Universitäten durchführen, dh Bestechungsgelder zahlen, werden die Technologien harmlos, ethisch und alles zurückgeben. Selbst wenn sie damit Höllenfeuer-Raketen abwerfen. Sie sind unsere Höllenfeuer. Nicht wie jene, die ohne die kostbare Aufsicht der Ethikabteilung entwickelt wurden, die Höllenfeuer ausgelöst hätte, sondern böse .

Das heißt, es gibt eine Erpressung: Entweder kündigen die Branchen gemeinsam mit der Universität Projekte an, oder die Wissenschaftler und Ethikexperten fangen an zu schreien: Was die gelddurstigen Bösen uns alle töten werden !!!! . Es ist ein hoch erprobtes Modell, das bereits in der Welt der Pharmazeutika, aber auch der Ökologie verwendet wird (wenn Sie nicht an das übliche GrPe und die drei Großbuchstaben spenden, sind Sie im Visier, auch wenn Ihre Autos an Neutrinos gehen, wenn Sie stattdessen Spenden machen Sie vergessen dich auch dann, wenn deine Autos Welpen versiegeln.

Aber lass uns zum Saft gehen. Kann KI rassistisch sein?

Diejenigen, die diesen Ballen unterstützen, sagen, dass "als die Experimente in den USA durchgeführt wurden, festgestellt wurde, dass die Neger laut KI krimineller waren".

Aber schauen Sie, wie seltsam, und wenn wir uns fragen würden, auf welche Daten sie trainiert wurden, was würden sie uns antworten? Sie würden antworten, dass sie mit den Daten der amerikanischen Polizei erzogen wurden. Derjenige, der anscheinend zufälliges Niggas tötet.

Daher ist das experimentelle Ergebnis in der Tat keineswegs negativ: Als KI rassistisch wurde, hatte sie uns signalisiert, dass die Daten in irgendeiner Weise rassistisch waren oder Rassismus enthielten.

Genau wie Microsofts KI, die mitten im Alt-Rechts-Sturm auf Twitter allein gelassen wurde und Nazi wurde. Anstatt die Leute für die Tatsache zu skandalisieren, dass eine KI die Menschheit ausrotten wollte, hätte vielleicht jemand fragen sollen: "Aber gibt es auf Twitter nicht ein leichtes Hassproblem?".

Der Punkt ist also: JA. Eine KI kann ein Nazi werden, wenn sie auf Daten basiert, die von Goebbels selbst geschrieben wurden. Das Problem mit KI, das maschinelles Lernen im Allgemeinen durchführt, ist, dass sie nicht die Fakten haben: Sie haben nur die Daten .

Wenn die Daten zeigen, dass wir Schwarzen höhere Strafen als Weißen auferlegen, wird AI sie für schuldiger erklären. Aber die Tatsache, dass Ai rassistisch wird, wenn überhaupt, ist ein Warnsignal. Dabei IMITIERT AI das Verhalten der gelesenen Daten: Wenn die Daten aus einem rassistischen Justizsystem stammen, werden sie rassistisch.

Aber an diesem Punkt wäre es interessant, sie als Lackmuspapier zu verwenden: Sie erstellen eine KI, bilden sie mit den von einer bestimmten Institution erzeugten Daten aus und überprüfen, was daraus geworden ist: Hier kommt der XAI ins Spiel, dh die Konstruktion künstlicher Intelligenz nach der Ausbildungszeit möglich zu verstehen. Gegenwärtig sind die KI sehr schwer zu verstehen, da das Konstrukt aller Daten, die sie haben, nicht verständlich ist, wenn nicht für sich selbst.

Das Problem liegt nicht in der Methode, mit der wir steuern, was die KI gelernt hat: Wir können sie auch als Chatbots programmieren und miteinander sprechen. Aber wenn ich jetzt eine KI genommen habe, habe ich alle INPS-Daten darin festgehalten und festgestellt, dass KI gegen die Kalabrier rassistisch wird. Ich sollte nicht sagen, dass KI gegen die Kalabrier rassistisch ist. Im Gegenteil, ich sollte nachsehen, wie INPS verhält sich gegenüber den Kalabriern.

Wenn sich die erste KI nach dem Mahlen der Polizeidaten als "rassistisch" erwiesen hätte, hätte jemand vielleicht nachgesehen, dass die amerikanische Polizei tatsächlich Probleme mit Rassismus hatte, vielleicht hatten sie es. Aber es machte mehr Schlagzeilen in den Zeitungen (und bequemer in der akademischen Welt), über das "Scheitern" der KI-Industrie zu berichten, als auf das Alarmsignal zu hören.

Wenn ich zufällig eine KI nahm und sie mit den Daten der italienischen Strafverfolgungsbehörden programmierte und die KI begann, den Duce zu erhöhen und nach Kokain und Amphetaminen zu fragen, würde ich die KI nicht kritisieren: Ich würde mich fragen, ob die italienischen Streitkräfte kein Problem haben des Faschismus und ein Problem der aufregenden Drogen. (Jeder Verweis auf wirklich existierende Fakten und Personen ist ein Verweis auf wirklich existierende Fakten und Personen).

Im Wesentlichen bestand das Spiel vieler Akademiker und Journalisten darin, KI nicht als Instrument zu verstehen: Es ist, als würde man mit einem Thermometer sagen: "Hey, das Thermometer hat Fieber!". Nein, vielleicht hat das Thermometer die gleiche Temperatur wie der menschliche Körper, aber der menschliche Körper hat Fieber.

Zusammenfassend: Ja, wenn eine KI maschinelles Lernen an einem Datenblock durchführen muss, der ein Problem des Nationalsozialismus verschachtelt, wird sie zum Nazi. Wenn Sie es mit den Daten einer rassistischen Polizei füttern, wird es rassistisch. Wenn Sie sie während der Lernphase in einer Umgebung voller Hass ausgesetzt lassen, wird sie Ihnen sagen, dass sie jeden Menschen eliminieren möchte.

Aber AI ist ein Thermometer, und das Thermometer hat kein Fieber: Das Fieber hat jemanden, der das Thermometer benutzt hat.

Und wenn jemand gefragt hätte, hätten die Schöpfer dieser KI es ihm erklärt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert