Sonntag, Mai 5, 2024

Das böse Büro

Uriel Fanellis Blog in deutscher Sprache

Uriel Fanelli

Falsche menschliche Intelligenzen.

Ich habe in der Vergangenheit bereits meine leichte Enttäuschung über die Seite „le alternative.net“ zum Ausdruck gebracht, weil es der klassische Versuch von Leuten ist, die „weniger kompetent sind, als sie sollten“, eine Nische zu graben und ein Einkommen zu erzielen. Das ist das Problem des fehlenden Grundeinkommens: Zu viele Menschen sind getrieben, um jeden Preis auf jeden Trend aufzuspringen, sich als „Experte“ zu verkaufen.

Und das geschieht einfach, indem man die Gewissheit ausnutzt, mit WENIGER kompetenten Leuten zu sprechen, ein Effekt, den ich "Trennung loslassen, sie verfolgen, hhh" nenne.


Ich beziehe mich auf etwas, das ich eher zufällig als alles andere gelesen habe und das ich eher erbärmlich als lächerlich finde.

Der Artikel, von dem ich spreche, ist dieser:

https://www.lealternative.net/2023/01/12/intelligence-artificiale-il-potere/

und es ist so falsch und inkompetent, dass ich nicht weiß, wo ich anfangen soll. Ich könnte Ihnen sagen, dass seine Beschreibung von GPT lächerlich ist: Er beschreibt es (wahrscheinlich kopiert er den Newsletter „Guerre di Rete“) als ein System, das Ihnen bei gegebenen n Wörtern sagen kann, welches n + 1 Wort am wahrscheinlichsten auf das letzte folgt.

Aber das hat NICHTS mit „Vorhersage des nächsten Tokens“ zu tun. GPT-3 stellt sogenannte „Tokens“ zur Verfügung, die keine Wörter sind, sondern Elemente eines Sprachmodells. Was wiederum erworben wurde.

Wenn Sie mehr darüber wissen möchten, können Sie lesen, was ich weiß:

https://arxiv.org/abs/1409.0473 , über die „transformativen“ Systeme, die Teil von GPT-3 sind, die als „Aufmerksamkeitsmechanismen“ bezeichnet werden und es GPT-3 ermöglichen, zu verstehen, was wichtig ist und was nicht.

GPT-3 muss auch wissen, wie man eine bestimmte Sprache spricht, denn wenn es eine Folge von Tokens generiert hat, muss es diese dann in die Zeichenfolgen der Sprache übersetzen: {pig, specific, sound, } , ausgedrückt in nicht lesbaren Tokens, wird dann in „Wurzel“ übersetzt, wenn es {Schwein, spezifisch, gesund, weiblich, Mund, gestern} ist, wird es als „sie verwurzelt“ übersetzt, und so weiter. Dieses Wissen über das Modell ist nicht statisch, in dem Sinne, dass niemand der Maschine jemals gesagt hat, wie es zu tun ist. Es ist normalerweise ein GAN, das lernt.

Dann braucht man eine ganze Reihe weiterer Netzwerke, um das zu bekommen, was hier beschrieben wird:https://arxiv.org/abs/2005.14165

Es geht DEFINITIV nicht um so etwas wie „Statistiken darüber, welches Wort in einem Satz auf das X-Wort folgt“. Dieses Modell ist dumm, trivial, Sie finden es in der automatischen Eingabeaufforderung Ihrer Telefontastatur und es heißt "Markov Chain" ( https://en.wikipedia.org/wiki/Markov_chain ) und basiert auf einem mathematischen Modell , genau, von Markov: https://en.wikipedia.org/wiki/Markov_model

Der Unterschied zwischen einem Markov-Modell und einem GPT-3, um Ihnen eine Vorstellung zu geben, hat die gleiche Größenordnung wie zwischen einer Keule und einem Marschflugkörper. Sicher, sie können beide ausgedrückt werden, indem man „BONK!“ Sagt. (oder "Krebsstatistik"), aber wenn dies das Verständnis von "Kassandra" ist, können wir den gesamten Artikel leicht durch ein Kochrezept ersetzen.

Nur um sich Glaubwürdigkeit zu verschaffen, zitiert unser Held Gödel (der damit nichts zu tun hat: ein formal vollständiges Regelwerk für Ihren Computer, das Sie einfach installieren können, es ist ein Satz von Hornklauseln und wird in Form einer Sprache namens „Prolog“), aber Gödels Theorem bezieht sich auf einen extrem spezifischen und isolierten Fall, der Induktion beinhaltet. Aber es gibt kleinere Regelsätze, die vollständig sind und auf Computern ausgeführt werden, wie etwa PROLOG.

https://en.wikipedia.org/wiki/Horn_clause
https://en.wikipedia.org/wiki/Prolog
https://en.wikipedia.org/wiki/Prolog_syntax_and_semantics

Also, liebe Cassandra, installieren Sie einmal Linux, laden Sie Prolog aus Ihrem Repository herunter und beginnen Sie damit, ein vollständiges formales System zum Programmieren zu verwenden. Gödel wird es nicht übel nehmen, weil Horns Klauseln, auf denen PROLOG basiert, ein vollständiges System SIND, aber er hatte andere Anforderungen gestellt.

Kurz gesagt, wenn er versucht, maßgeblich zu sein, indem er Wörter wie "Statistiker" (selbst wenn er Markov wäre, müsste er von "stochastisch" sprechen) oder "Gödel" oder was auch immer verwendet, zeigt der Artikel deutlich eine zumindest enttäuschende Scharlatanerie , a Unverständnis für die grundlegenden Themen, das hat unglaubliche, und eine beunruhigende Unkenntnis des Themas.

Zum Beispiel glaubt „Cassandra“, dass Petabytes an Daten verwendet wurden, um dieses Modell auszuführen. Laut den Papieren verbrauchten sie 590 GB Text, die Sie problemlos auf Ihrem Heimcomputer haben können. Sie benötigen keinen Speicher eines Rechenzentrums oder Hyperscalers. Aber „Rechenzentrum“ zu sagen ist cool, also tut es „Cassandra“.

Es ändert sich wenig, aber laut Wikipedia benötigt man 8ooGB an Daten:

https://en.wikipedia.org/wiki/GPT-3

Sie brauchen kein Rechenzentrum, um GPT-3 auszuführen, liebe "Kassandra": Ein Computer reicht aus. Teuer, aber einige haben sie zu Hause. Wenn Sie es versuchen möchten, hier ist die Konfiguration:

Ok, die GPUs, über die wir sprechen, sind teuer, ab 3.000 €, aber ich würde nicht sagen, dass sie "ein Rechenzentrum" sind. Ein Rechenzentrum benötigen Sie höchstens, wenn Sie alles dem Internet aussetzen und viele Nutzer haben wollen. Aber wenn Sie die obigen Anweisungen befolgen, können Sie GPT-3 in Ihrem Haus haben.

Für jemanden, der einem Dinge erklärt, ist „Cassandra“ ziemlich enttäuschend. Wenn nicht erbärmlich.


Aber es gibt einen Moment, in dem „Cassandra“ beschließt, in die oberste Etage zu gehen, und glaubt, dass sie die mächtigste Karte spielt: als sie fragt, ob GPT-3 versteht, was sie liest, oder, im weiteren Sinne, ob sie versteht, was sie schreibt.

Wenn mir ein Pseudophilosoph diese Frage in Bezug auf KI stellt, ist meine Antwort einfach:

„Weil, Cassandra, DU alles verstehst, was du liest, schreibst oder sagst?“

Das Maß an Inkompetenz, das Sie in dem Artikel gezeigt haben, würde mir ausreichen, um zu zeigen, dass Sie NICHT wissen, wovon Sie sprechen, wenn Sie etwas darüber gelesen haben, haben Sie es nicht verstanden, und selbst wenn Sie es verstanden haben, dann Sie verstehe nicht was du schreibst.

Aber warum erwarten Sie dann genau das von einer KI, wenn SIE ohne Verständnis schreiben und ein NLP mit einer Markov-Kette verwechseln?Und das Problem ist sogar noch umfassender.

Sie haben eine Seite mit Dingen geschrieben, die Sie nicht verstehen, und Begriffe verwendet, die Sie nicht verstehen. Zum Beispiel „Rechenzentrum“. Die Tatsache, dass Sie es in Bezug auf die Rechenleistung mit einer Nvidia-GPU verwechselt haben, sagt mir viel, aber ich WEISS etwas mehr darüber.

Ich habe daran gearbeitet, etwas zu schaffen, das für Sie ein „Rechenzentrum“ ist, eine relativ kleine Sache, d. h. ein Cloudera-Cluster, um 16 PB/Tag an eingehenden Daten zu verarbeiten, einige Aggregate zu extrahieren und den Rest aufgrund der DSGVO wegzuwerfen.

Und willst du etwas Lustiges wissen? Als die Architektenversammlung stattfand, saßen 16 von uns am Tisch, und wir waren die Architekten. Unter uns waren eine Reihe von Spezialisten, und unter ihnen hatten die verschiedenen Anbieter "Unterspezialisten" geschickt. Sie wissen, was das bedeutet: KEIN MENSCH allein „versteht“ wirklich, was ein Rechenzentrum ist.

Sicher gibt es die "Blaupausen", die es Ihnen in Blöcken erklären, https://www.cisco.com/c/en/us/td/docs/solutions/Enterprise/Data_Center/DC_Infra2_5/DCI_SRND_2_5a_book/DCInfra_2a.html , aber Wenn es darum geht, einen zu bauen, „bekommt“ niemand wirklich alles. Moral: JEDER, der von einem „Rechenzentrum“ spricht, spricht über etwas, das er NICHT wirklich versteht. Auch die Erfahrensten von uns.

Und so, liebe „Kassandra“, kann ich dir eines sagen: Kein Mensch hat jemals wirklich vollständig VERSTANDEN, was er geschrieben hat. Selbst wenn sie weniger inkompetent waren als Sie oder besser als Sie versuchten, Inkompetenz zu zeigen, "versteht" normalerweise niemand wirklich, was sie schreiben.

Sicher, es braucht nicht viel zu sagen, dass ich ein Rechenzentrum besser verstehe als Sie (ich habe noch nie eines mit einer NVIDIA-GPU in Performance Computing verwechselt), es braucht nicht viel zu sagen, dass ich den Unterschied verstehe zwischen einer Markov-Kette und einem NLP, aber ich wage nicht wirklich zu sagen, dass ich es "vollständig verstehe", in dem Sinne, dass wir über ein extrem großes Feld sprechen und kein einzelner Mensch wirklich alles "versteht", was darin steckt der Horizont. Nehmen wir an, ich wüsste zumindest, welche Spezialisten ich ins Team holen und welche Unterspezialisten einbeziehen müssten.

Wenn Sie denken, dass "menschliche" Überlegenheit darin besteht, dass GPT-3 nicht "versteht", was es liest und nicht "versteht", was es schreibt, habe ich schlechte Nachrichten für Sie: Es ist nicht nur fast normal für die Menschheit, aber es ist in deinem Fall BESONDERS DEUTLICH.

Sie verstehen nicht mehr als GPT-3, was Sie geschrieben haben, und es ist leicht zu sehen, dass Sie es viel weniger verstehen als viele Menschen: Wenn Sie das zu einer "krebserregenden statistischen Maschine" gemacht hat, was auch immer das bedeutet, nun, Sie wissen, was tun. Vielleicht gibt es sogar eine Brücke in Ihrer Nähe.


Aber warum machst du dir dann die Mühe, Dinge zu schreiben, die du nicht genug „verstehst“, über Dinge, die du nicht genug „verstehst“? Oder, wie gesagt, warum füllen Sie das Netz mit seitenlangen inkompetenten Tiraden?

Die Antwort ist ganz einfach: Sie hoffen, etwas Geld zu verdienen. Oder Sie hoffen, es hilft Ihnen dabei. Nehmen wir an, ich bezweifle es in dem Sinne, dass niemand, nachdem er gelesen hat, was Sie schreiben, denkt, dass Sie irgendetwas "verstehen". Sie haben ein Rechenzentrum gegen eine NVIDIA-Grafikkarte und ein Markov-Ketten-NLP-Modell eingetauscht, das Wörter vorschlägt, während Sie auf Ihrem Handy tippen. Wer würde Sie jemals einstellen, nachdem er so eine Schaufel voll Scheiße gelesen hat, die auf die weiße Wand der IT geworfen wird?

Und daher ist mir klar, warum Sie Angst vor CHAT-GPT oder vor GPT-3 haben. Sie haben Angst davor, weil es BESSERE Artikel schreiben kann als Ihre, Sie haben Angst davor, weil es mehr schreiben kann, Sie haben Angst davor, weil es WENIGER KOSTET als Sie.

Das ist der Punkt, liebe „Kassandra“: Sie haben Angst vor GPT-3 (mit dem Chat-GPT gebaut wird), weil es bessere Artikel schreibt als Ihre.

Und es ist daher eine Gefahr für eine ganze Reihe von Menschen wie Sie , die glauben, dass sie Karriere machen oder zumindest über die Runden kommen können, indem sie über Dinge schreiben, die sie „weniger wissen als die meisten“ und „weniger verstehen als die meisten“. Um höflich zu sein, da ich auf Inkompetenz und Oberflächlichkeit hinweise.

Ich weiß, dass Sie versuchen werden, auf dieses Schreiben zu antworten, wenn Sie jemand darauf hinweist. Aber das Problem für Sie ändert sich nicht. Wenn auch Sie einen Weg finden könnten, mir zu antworten, was JEDENfalls in ein paar Monaten oder Jahren passieren würde, ist, dass jeder, der Seiten mit Schriften zu einem Thema füllen möchte, um die Kosten zu minimieren, anstatt Sie anzurufen, ChatGPT verwenden wird.


Als jemand, der im Bereich neuer Technologien arbeitet, kenne ich das Verhalten von Menschen wie Ihnen. Ich kenne die Panik, ich sehe es in ihren Augen, wenn der CEO die Systeme anordnet, die ihren Platz einnehmen werden, und wir "vorgestellt" werden, und ich habe keine Zweifel an der Ursache von Definitionen wie " Krebsstatistik".

In meiner Unterwäsche stinkt es nach Scheiße.

Aber wenn Sie eine NVIDIA-Karte und 800 GB Text fürchten, suchen Sie den Schuldigen nicht in einer Techno-Verschwörung, im Kapitalismus und den Feinden von Freiheit und Demokratie oder in Meganoiden: Das Problem ist das zwischen zwei Inkompetenten Intelligenzen (wie Menschen und ChatGPT) ist es immer noch relativ einfach, zwischen den inkompetenteren und den weniger inkompetenten zu unterscheiden.

Und du bist auf der falschen Seite der Linie, liebe "Cassandra".

Sie sprechen über Genauigkeit, als ob Menschen genau wären, und beschweren sich, dass GPT-3-Antworten statistisch genau, aber nicht "wirklich" korrekt sind. Nach dem Zitieren von Gödel, das Sie an dieser Stelle vermutlich nie verstanden oder gar gelesen haben, aber vor allem, nachdem ich sorgfältig vermieden habe, Sie zu fragen, wie viel „denkende“ Menschen (was auch immer das bedeutet: ein anderes Wort, das verwendet wird, aber nicht „verstehen“) etwas tun anders.

Kein Mensch versteht „wirklich“, was er schreibt, was er liest, oder ist „wirklich“ genau. Einige sind etwas mehr, andere weniger, und der Unterschied geht in der Wahrscheinlichkeitswissenschaft verloren: genau wie das "Verständnis" von GPT-3.

Weißt du, was das Problem ist? GPT-3 ist Ihnen im Bereich „Textverständnis“ einen Schritt voraus.

Und das macht dir Angst, liebe Cassandra.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert