Montag, Mai 6, 2024

Das böse Büro

Uriel Fanellis Blog in deutscher Sprache

Uriel Fanelli

KI und Self-Publishing.

Ich hatte gerade eine bizarre Diskussion über das Schreiben und den Einsatz von KI im Self-Publishing-Bereich. Nun, wie Sie wissen, habe ich mehrere Jahre vor der Existenz von KI mit Amazon Kindle Publishing begonnen, daher ist es offensichtlich, dass ich meine Texte geschrieben habe (es sei denn, Sie möchten mir auch vorwerfen, zehn Jahre vor OpenAI die generative KI erfunden zu haben), aber der größte Unsinn, den ich je habe Man hat gehört, dass allein die Verwendung, wenn auch nur für die Cover, ausreicht, um zu sagen, dass das Werk nicht mehr meins ist.

Versuchen wir für einen Moment zu verstehen, was das bedeutet.

Im Normalfall schreiben Sie den Text des Buches und bezahlen dann einen Lektor für die Bearbeitung. In dieser Phase liest ein Leser, der nicht Sie selbst ist, das Buch und korrigiert die Tippfehler und „extravaganten“ Formen, die Sie möglicherweise unbewusst verwendet haben.

Das Argument, das ich gehört habe, ist, dass, wenn ich eine menschliche Person für diese Arbeit verwende, das Buch immer noch „mein“ ist. Wenn ich stattdessen ein Sprachmodell verwende, gehört mein Buch nicht mehr mir, weil ich die böse KI verwende, die Manzoni sicherlich die Fähigkeit zum Schreiben gestohlen hat. Der Autor (oder zumindest Co-Autor) meines Buches ist also ohne Zweifel Manzoni.

Es versteht sich von selbst, dass es keinen Sinn macht, sich eine Person (den Herausgeber) als völlig neutrale Person vorzustellen, wenn man sicher ist, dass er/sie nie durch die Lektüre von Manzoni geschult wurde, während ein Sprachmodell eindeutig manzonisch wäre, wenn er/sie meine korrigieren würde Text.

Das Problem ist jedoch folgendes:

  • Technisch gesehen ist die Autokorrektur des Computers auch ein Sprachmodell.
  • Sogar der Wortprompter auf Ihrer Tastatur ist, obwohl er ein trivialer Markovianer ist, ein Sprachmodell. Und der T9 war es auch.
  • Im Grunde verwendet jeder seit mindestens 30 Jahren Sprachmodelle, nur waren sie klein.

Also nein, kommen Sie darüber hinweg: Sie haben Blödsinn gesagt. Die Verwendung eines großen Sprachmodells zur Korrektur Ihres Textes, wie beim Bearbeiten, führt nicht dazu, dass daraus ein Manzoni-Text wird, nur weil Manzoni auch zur Erstellung des Sprachmodells verwendet wurde.


Ein weiteres großes Problem betrifft Abdeckungen. Ich verwende generative KI, um die Cover zu erstellen, und das Gleiche gilt auch hier. Sie „stehlen“ jemand anderen, worauf die KI trainiert hätte.

Ich muss ein paar Dinge sagen: Ich habe die Titelbilder anhand der Beschreibungen der Charaktere im Buch erstellt und höchstens Dinge hinzugefügt, um die Bilder präziser zu machen. Ich kann sagen, wenn man sich heute die Cover von „Pietre“ ansieht, sieht man die Charaktere fast genau, wenn nicht sogar genau so, wie ich sie mir vorgestellt habe.

Das heißt, wenn Sie das Foto aus meinem Gehirn gemacht hätten, hätten Sie dasselbe Gesicht bekommen. Bisher ist es mir gelungen, sowohl Amira als auch D'hu sehr gut zu simulieren, und ich muss sagen, dass die Ähnlichkeit beeindruckend ist.

Und hier ist der Punkt, nämlich: Nehmen wir einmal an, dass die KI auf dem Foto von Manzoni selbst trainiert hat, dann macht es keinen Sinn zu glauben, dass ein Bild, das in MEINEM Kopf auftauchte , die Schöpfung eines anderen ist , soweit es ihm ähnelt die Person, die ich im Sinn habe, und nicht das, was Manzoni im Sinn hatte.

Jedes Mal, wenn ich eine lange Eingabeaufforderung schreibe, bekomme ich etwa zwanzig Bilder, plus solche, die „geträumt“ sind. Viele davon sollten verworfen werden, aber mindestens eines ist in der Regel praktisch eine Momentaufnahme dessen, was ich mir vorgestellt habe. Es handelt sich also um einen Prozess, der nicht einmal deterministisch ist: Ich bin es, der unter den vielen Bildern erkennt: „Hier, das ist es, was ich sehe, wenn ich meine Augen schließe“.

Der Leser kann daher sicher sein: Wenn man sich das Cover von Stones: erste Folge ansieht, sieht man praktisch ein Foto davon, wie ich mir D'hu vorstelle, mit einer Präzision, die ich als „Telepathie“ bezeichnen würde.

Das Gleiche gilt für Amira auf dem Cover der zweiten Folge. Und so weiter. Ich werde für alle Cover die gleichen Kriterien verwenden.

Aber jetzt habe ich eine Frage: Als ich stattdessen einen Photoshop-Experten gebeten habe, etwas für mich zu tun, und ich NIE bekommen habe, was ich mir vorgestellt habe, habe ich „weniger“ gestohlen und die SICHERHEIT gehabt, dass das Zeug NICHT aus meinem Gehirn kommt , aber davon noch jemand anderes?


Natürlich ist ein Unterschied spürbar. Ich kann die Cover selbst machen und den Schnitt selbst übernehmen. Ich muss niemanden mehr bezahlen .

Da stellt sich spontan die Frage: Was wäre, wenn hinter all diesen Beschwerden der „Puristen“ tatsächlich die Verteidigung eines finsteren Wirtschaftsinteresses stünde, nämlich des viel bekämpften „Kapitalismus“?

Ich sage es ganz ehrlich: Bisher ist es niemandem gelungen, meinen Geist so zu „fotografieren“, wie es generative KIs tun. Ich kann Ihnen sagen, dass diese Fotos das widerspiegeln, was ich mir vorgestellt habe. Wie kannst du es wagen, herauszukommen und zu sagen, dass das Buch irgendwie mehr „mein“ ist, wenn jemand anderes vorbeikommt und es NIE richtig macht?

Und ich frage, weil ich in letzter Zeit sehe, dass Linux mehr zu einer politischen Partei als zu einem Betriebssystem wird und es eine enorme Abneigung gegen die Integration generativer KI in seinen Desktop und seine Programme gibt: Dann möchte ich keine Beschwerden hören, wenn Sie sagt, dass nach der Integration von KI in den Windows- und Office-Desktop das Jahr des Linux-Desktops nächstes Jahr ist.

Die Stallmanisierung von Linux, mit all dieser nutzlosen Abneigung gegen ein Tool, das viel hilft, könnte VIEL mehr Schaden anrichten, als Sie denken.

Lassen Sie Stallmann Spaß mit GNU HURD haben.

Alle anderen möchten in Ruhe arbeiten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert