Solo-Recherche · Keine Organisation

Sie sagten keine KI.
Der Code sagt was anderes.

Humanwashed ist ein Ein-Personen-Projekt. Ich lese Open-Source-Repositories und dokumentiere, wenn öffentliche „Ich habs allein gemacht"-Behauptungen forensisch nicht haltbar sind. Keine Organisation, kein Kollektiv. Nur offene Recherche.

Methode

So schaue ich hin.

Meine Prüfung ist öffentlich und reproduzierbar. Kein Machine-Learning-Black-Box, keine geheime Formel. Drei Schritte, alles dokumentiert.

  1. 01

    Sprache lesen

    Ich lese READMEs, Kommentare und Commit-Messages. LLMs hinterlassen erkennbare Kadenzen — Satzlängen, Übergangswörter, bestimmte Formulierungen.

  2. 02

    History prüfen

    Git-Historie lügt nicht. Ich schaue mir Commit-Timing, Datei-Bursts und Diff-Formen an. Hunderte Zeilen pro Minute sind menschenuntypisch.

  3. 03

    Muster abgleichen

    Jedes große Modell hat Tells — bevorzugte Fehlermeldungen, Variablennamen, Boilerplate. Ich vergleiche mit öffentlich bekannten Mustern.

Transparenz

Ich mache auch Fehler.

Wenn ich mich irre, ist die Korrektur lauter als die Behauptung. Bevor ein Fall publik wird, liegen die Rohdaten offen. Maintainer können jederzeit Gegenbelege schicken — die landen dann genauso im Archiv wie die ursprüngliche Einschätzung.

Mitmachen

Einen Fall im Kopf? Schreib mir.

Repo-Link, die Behauptung, die dich stutzig gemacht hat, und alles was du gesehen hast. Ich schaue es mir an, und wenn der Fall hält, kommt er ins Archiv — mit vollen Notizen.