Donnerstag, Februar 22, 2024

Das böse Büro

Uriel Fanellis Blog in deutscher Sprache

Uriel Fanelli

Die Verkäufer von AI-Hoaxes

Die Verkäufer von AI-Hoaxes

Ich weiß nicht, ob Sie sich an die Zeiten erinnern, als Sie auf den Monitoren viele kleine Pflanzen, meist Kakteen, sahen, die von Menschen platziert wurden, die davon überzeugt waren, dass sie „schlechte Strahlung absorbieren“. Es handelte sich um einen Schwindel, der im Allgemeinen von Menschen mit einer humanistischen Kultur geglaubt wurde, etwa von Anwälten, Buchhaltern, Grafikdesignern, Sekretärinnen und anderen. Offensichtlich verdiente jemand Geld, indem er diese Unwissenheit ausnutzte. An diesem Punkt sind wir wieder zurück, aber mit KI.

Ich sehe zahlreiche Artikel, von denen einige Universitätsstudien zitieren, in denen Systeme vorgeschlagen werden, „die KI verwirren“ und damit das „Urheberrecht“ schützen sollen.

Es versteht sich von selbst, dass sie nicht funktionieren, das heißt, sie funktionieren nur unter experimentellen Bedingungen, in einem völlig akademischen Aufbau. Der akademische Aufbau ist offensichtlich durch die finanziellen Mittel begrenzt, keine Universität verfügt über die Ressourcen von OpenAI und daher ist es der Aufbau selbst, der den Eindruck erweckt, etwas erreicht zu haben, auch ohne im praktischen Kontext etwas Relevantes entdeckt zu haben.

Ich habe versucht, einige dieser „Entdeckungen“ zu lesen, und mir sind einige Dinge aufgefallen, die mir nicht gefallen: Die Artikel scheinen so geschrieben zu sein, als hätte jemand einen Artikel über die Fähigkeit einiger Pflanzen geschrieben, Röntgenstrahlen zu absorbieren. Wenn ich das bestehe Wenn Sie den Artikel an jemanden weiterleiten, der NICHT weiß, dass sich Röntgenstrahlen geradlinig ausbreiten, könnte diese Person auch zu dem Schluss kommen, dass ein Kaktus ÜBER dem Monitor die vom Monitor zur Person gelangenden Röntgenstrahlen abfangen könnte. Es liegt auf der Hand, dass Sie, wenn Kakteen Röntgenstrahlen stoppen würden und Ihr Problem Ihr CRT-Monitor ist, sie ZWISCHEN Ihnen und dem Monitor platzieren müssten.

Aber wenn man jemanden dabei erwischt, wie er Strahlung als eine Gaswolke sieht, die im Raum sitzt, dann könnten irgendwo Kakteen die Wolke absorbieren.

Diese Studien zur Verwendung unsichtbarer Wasserzeichen zur „Deorientierung“ von KI bewirken dasselbe: Sie nutzen die Tatsache aus, dass die betreffenden Humanisten glauben, dass das KI-Gedächtnis ein linearer Prozess ist.


Mal sehen, was sie falsch machen. Erstens der Unterschied zwischen XAI und AI. XAI steht für Explainable Artificial Intelligence, also für den Menschen verständliche künstliche Intelligenz.

Das bedeutet, dass wir nach dem Lernpfad die Daten nehmen, die die KI im Deep-Learning-Prozess „verstanden“ hat, und durch das Lesen dieser Daten verstehen wir, „was sie verstanden hat“. Es ist nicht so, dass es unmöglich wäre, intuitiv zu verstehen, was er verstanden hat, wenn die KI nicht „erklärbar“ ist. Durch die Beobachtung des Verhaltens kann man MANCHMAL auf etwas schließen.

Aber im Allgemeinen, wenn wir über GROSSE Sprachmodelle oder SEHR GROSSE Sprachmodelle oder Modelle wie Stable Diffusion XL oder wie DELL-E sprechen, ist die Menge der eingegebenen Daten so groß, dass es im Allgemeinen NICHT um „erklärbare“ KI geht .

Was bedeutet das?

Das heißt, wenn ich die KI anhand von Fotos von Valentina Nappi trainiere und NUR Fotos von Valentina Nappi zum Training verwende, kann ich mit Sicherheit davon ausgehen, dass sie gelernt hat, wie Valentina Nappi aussieht.

Aber wenn ich die Einbettung „öffne“, finde ich Valentina Nappi nicht, oder besser gesagt, ich finde NICHTS, was ich mit Valentina Nappi in Verbindung bringen könnte. Wenn ich beispielsweise eine KI nur mit Fotos von Valentina Nappi und eine KI NUR mit Fotos von Gianna Michaels trainieren und dann die entsprechenden Einbettungen an jemanden weitergeben würde, könnte mir kein Mensch sagen: „Das ist eindeutig die Einbettung von Valentina Nappi.“ ", und nicht dieses.

Das heißt, diese KIs sind nicht „erklärbar“. Weil es wichtig ist?


Es ist wichtig, weil jemand wirklich glaubt, dass ich seine Werke finden werde, wenn die KI anhand von Beispielen trainiert und ihre Werke als Beispiel verwendet und „die KI öffnet“.

Falsch: Ich werde darin nichts menschlich Verständliches finden.

Daher werden ALLE „Plagiats“-Klagen scheitern.

Diese Leute glauben daher, dass die KI eine Kopie davon behält, wenn ihre Werke während des Lernens gespeichert werden. Nein. Die KI sieht die Werke auf keinen Fall mit menschlichem Sehvermögen, für sie sind die Bilder Zahlentabellen, und daher gibt es keine Möglichkeit, dass das Werk, wie wir es wahrnehmen, in der KI enthalten oder erhalten bleibt.

Daraus folgt, dass es keine Möglichkeit gibt, Rechte vor „Plagiaten“ zu schützen, da es keine bekannte Technik gibt, um zu wissen oder zu verstehen, dass sich Ihre Arbeit „innerhalb“ der KI befindet. Dies sind keine XAI, daher sind sie nicht erklärbar. Wenn es sich um XAI handelte, könnte man das feststellen.

https://en.wikipedia.org/wiki/Explainable_artificial_intelligence

Aber warum scheinen diese Dinge in den Zeitungen zu funktionieren? Warum veröffentlicht die Akademie Arbeiten, um Geld zu erhalten, und niemand beurteilt die intellektuelle Ehrlichkeit der Arbeit selbst? Wenn Sie schlau sind, ist es daher möglich, Artikel zu veröffentlichen, die das zu sagen scheinen, was Sie behaupten wollen, ohne offensichtliche Fehler, denn der Blödsinn, den Sie sagen, kommt nicht von dem, was in dem Artikel steht, sondern von dem, was nicht da ist. .

Was machen diese „Gelehrten“?

Nehmen wir also eine KI, die NUR mit den Bildern von Valentina Nappi trainiert. Das Ziel besteht darin, ein Foto von Valentina Nappi zu reproduzieren. Dies erfordert, dass die Maschine, wenn sie „Valentina Nappi“ hört, weiß, wie sie es mit etwas assoziieren soll.

Wenn wir das Wort „Valentina Nappi“ mit einer Reihe von Fotos verknüpfen, die sie bei der Arbeit porträtieren, lernt die Maschine, dass Valentina Nappi blond ist, dass sie eine ziemlich helle Haut hat, dass sie braune Augen hat und alle darin sichtbaren morphologischen Merkmale die Fotos .

Nehmen wir nun an, dass wir konsequent und systematisch ein kleines rotes „B“ an einer Stelle des Fotos platzieren. Wir haben es unten rechts platziert.

Wenn maschinelles Lernen stattfindet, erkennt der Prozess, dass Valentina brünett ist, außer zu dem Zeitpunkt, als sie vielleicht blond wurde. Sie werden sehen, dass sie einen sehr runden Hintern hat, vielleicht abgesehen von den Monaten, in denen sie ein wenig Gewicht verloren hat. Aber alle Fotos haben unten rechts ein kleines rotes B.

Die Maschine wählt die entscheidendste, regelmäßigste und häufigste Information aus, nämlich das rote B. Von diesem Moment an wird es beim Valentina Nappi-Auto hauptsächlich ein rotes B in der rechten Ecke geben.

Wenn ich in der Stichprobe nur Fotos von Nappi habe, gibt es natürlich auch andere Informationen, die konstant sind, wie zum Beispiel, dass sie eine Frau ist usw. Aber wenn ich VIELE Bilder scanne, nicht alle von Valentina Nappi, sondern in den Beispielen, die ich als „Valentina Nappi“ markiere, nur Fotos mit einem roten B, wird das Gerät mit ziemlicher Sicherheit entscheiden, dass „Valentina Nappi ein rotes B ist“.

Das ist es, was die akademischen Herren tun, die diese Artikel veröffentlichen. Was bedeutet das?

Diese Herren verwenden eine steganografische Wasserzeichentechnik, das heißt, sie zeichnen etwas (eine Marke, ein anderes Bild usw.) in die weniger signifikanten Frequenzen des Bildes selbst. Was bedeutet „weniger bedeutsam“? Das heißt, wenn ich dir ein Foto von Nappi bei der Arbeit zeige, schenkst du dem roten B keine Beachtung.

Ebenso verbergen sie diese „Markierungen“ in den Bits, die die am wenigsten verwendete Farbe darstellen. Kurz gesagt, es ist da, aber Sie bemerken es nicht, weil Ihr Auge es ignoriert.

Wenn alle Bilder, die das Werk eines bestimmten Autors zum Thema haben, dieses Zeichen tragen, lernt die KI, den Namen des Autors mit dem Wasserzeichen zu verknüpfen. Und wenn Sie ihn bitten, etwas zu tun, wie ich weiß, „Mach mir Valentina Nappi im Stil von HRGiger“, würde, wenn Giger steganografisches Wasserzeichen verwendet hätte, nur steganografisches Wasserzeichen angezeigt werden.


Diese Innovation wird als etwas angesehen, das „das Werk vor unbefugter Reproduktion durch KI schützt“. Sie sind Blödsinn.

Ich werde eine Liste mit Gründen erstellen.

  1. Diese Technik schützt nicht das Bild, sondern das Wasserzeichen.

Ich erkläre es. Wir wollen einer KI beibringen, italienische Pornostars zu erkennen. Also. Valentina Nappi hat auf allen ihren Fotos das rote B gesetzt. Aber alle anderen Schauspielerinnen taten es nicht. Wenn ich schreibe „Zeichne mir einen italienischen Pornostar“, wird das rote B zugunsten von allem gefiltert, was italienische Pornostars gemeinsam haben.

Da KI kategorisiert und wenn Sie Valentina Nappi in die Eingabeaufforderung schreiben, wird es auch mit Valentina Nappi verknüpft, in großen Trainingsmodellen wird die Technik nicht mehr funktionieren.

Es wird nicht mehr funktionieren, weil KIs über einen Durchsetzungsmechanismus verfügen. Wenn Sie also bei der Produktion von Valentina Nappi sagen: „Lass mich Valentina Nappi mit Chewbecca anal machen lassen“, wird sie {valentina nappi, italienisch, milf, anal, großer Arsch, brünett, große Titten usw.} verwenden, also alle möglichen Bezeichnungen die sie im Training gegeben haben, und nicht alle dieser Etiketten werden NUR mit ihr in Verbindung gebracht. Das rote B wird also verschwinden, selbst wenn es auf ALLEN ursprünglichen Nappi-Fotos vorhanden war, einfach weil die mit Nappi verbundenen Etiketten es nicht immer enthalten.

Sie können das Phänomen der Durchsetzung im Eröffnungsbild überprüfen: Wie Sie sehen können, wurde das rote B entfernt, obwohl es in der Eingabeaufforderung etwas vage bleibt, und die zugehörigen Tags, die ich verwendet habe {valentina nappi, italienisch, kurvig, milf, anal , großer Arsch, brünett, große Titten usw.} haben Nappi „ein wenig“ verändert und auch die Eigenschaften anderer Modelle kombiniert.

Warum funktionieren Experimente? Denn diese Universitäten KÖNNEN KEINE große kommerzielle KI nutzen (da sie keine Kontrolle über die bereits durchgeführte Ausbildung haben) und sie installieren die Software „inhouse“. Auf diese Weise verbrauchen sie jedoch sehr wenig Rechenleistung, eine sehr begrenzte Anzahl von Beispielen und schaffen es daher, KIs in die Irre zu führen.

Ist das Ergebnis gültig? Offensichtlich. Es ist auch spielbar.

Ist das Ergebnis praxistauglich? Nur mit kleinen KIs, die innerhalb der Budgetgrenzen des Experiments liegen.

Ist das Ergebnis nützlich?

Nein, absolut nein. Bei großen Modellen funktioniert es nicht, und es wird NIEMALS funktionieren.


Einige Hintergrundüberlegungen.

Die akademische Welt ist nicht mehr die Quelle positivistischer Ehrlichkeit, die Physiker gerne vertreten. Das Problem ist die Finanzierung, und der Finanzierungsmechanismus belohnt NICHT intellektuelle Ehrlichkeit.

Auf bürokratischer Ebene die Tricks, mit denen sie in ihrem Experiment „das Bildschutzsystem gegen KI“ zum Funktionieren bringen.

Die Regeln werden daher eingehalten. Was sie Ihnen NICHT sagen, ist, dass ihr Experiment, schon aus Budgetgründen, SEHR weit davon entfernt ist, ein GROßES Modell zu verwenden.

Diese Art von Unehrlichkeit ist in der akademischen Welt, insbesondere in der IT, weit verbreitet, mit der Folge, dass es immer weniger Akademiker in der IT gibt. Und der Grund dafür ist, dass diese unehrliche Vorgehensweise NICHT durch systematische Mechanismen sanktioniert wird.

Tatsächlich zahlt es sich aus: Diese Pseudopapiere landen in den Zeitungen, werden von denjenigen wahrgenommen, die Gelder verteilen usw. Heute haben wir also eine Welt der akademischen Forschung, deren Geschäftsmodell darin besteht, Arbeiten zu erstellen, die nichts zu dem hinzufügen, was wir bereits wissen, sondern geschrieben werden, um Geld zu erhalten.

Dann füllen sich die Monitore natürlich mit Kakteen. Und die von Photoshoppern erstellten Bilder werden mit nutzlosen steganografischen Wasserzeichen gefüllt. Aber wenn Sie versuchen, die Akademiker darauf aufmerksam zu machen, werden sie pfeifend davonkommen und die „Entlarver“ rufen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert