Humanwashed ist ein Ein-Personen-Projekt. Ich lese Open-Source-Repositories und dokumentiere, wenn öffentliche „Ich habs allein gemacht"-Behauptungen forensisch nicht haltbar sind. Keine Organisation, kein Kollektiv. Nur offene Recherche.
Meine Prüfung ist öffentlich und reproduzierbar. Kein Machine-Learning-Black-Box, keine geheime Formel. Drei Schritte, alles dokumentiert.
Ich lese READMEs, Kommentare und Commit-Messages. LLMs hinterlassen erkennbare Kadenzen — Satzlängen, Übergangswörter, bestimmte Formulierungen.
Git-Historie lügt nicht. Ich schaue mir Commit-Timing, Datei-Bursts und Diff-Formen an. Hunderte Zeilen pro Minute sind menschenuntypisch.
Jedes große Modell hat Tells — bevorzugte Fehlermeldungen, Variablennamen, Boilerplate. Ich vergleiche mit öffentlich bekannten Mustern.
Wenn ich mich irre, ist die Korrektur lauter als die Behauptung. Bevor ein Fall publik wird, liegen die Rohdaten offen. Maintainer können jederzeit Gegenbelege schicken — die landen dann genauso im Archiv wie die ursprüngliche Einschätzung.
Repo-Link, die Behauptung, die dich stutzig gemacht hat, und alles was du gesehen hast. Ich schaue es mir an, und wenn der Fall hält, kommt er ins Archiv — mit vollen Notizen.