W ostatnich tygodniach jakieś 70% mojego feedu z newsami o AI to materiały o Claude Code. Ludzie przy jego pomocy kodzą, pracują i rozwiązują kompletnie odjechane problemy — typu zaprojektowanie zjeżdżalni dla dziecka.
Nie zdziwię się, jeśli umiejętność obsługi Claude Code wkrótce trafi do kanonu „skills required” przy rekrutacji. To też, niestety, pierwszy wyraźny przykład nierówności AI. Z własnego doświadczenia: ogarnięcie Claude Code na bazowej subskrypcji za 20 dolarów to mordęga — nawet Sonnet 4.5 momentalnie wypala limity. Do vibe-kodowania jako hobby potrzeba już planu Max za 100 USD, a do pracy zawodowej — jeszcze grubiej. Regularnie trafiam na ludzi, którzy mają np. po trzy subskrypcje po 200 dolarów każda.
Bezapelacyjnym mistrzem jest Jeffrey Emanuel, były analityk z Wall Street. Dziś zarządza blockchainową firmą Lumera Network, doradza, a hobbystycznie buduje otwarte narzędzia do AI-kodowania. Cały proces opisał na swojej stronie (http://agent-flywheel.com/), a kod leży na GitHubie (http://github.com/Dicklesworthstone).
Chociaż „hobby” to tu słowo naciągane. W pierwszym tygodniu stycznia Emanuel zrobił 2696 commitów na GitHubie. Dla porządnego developera normą jest 500–1000 commitów… rocznie.
Za plecami Jeffa stoi cała wataha agentów AI. Nic nie stoi na przeszkodzie, żeby odpalić kilka instancji Claude Code w sąsiednich kartach i porozdzielać zadania. Problem? Limity. Emanuel wypala 5-godzinny limit subskrypcji Max za 200 dolarów w 14 minut. Dlatego ma… 22 takie subskrypcje, łącznie za 4600 USD.
Kolejny problem to zarządzanie tym zoo. Żeby agenci współpracowali i nie deptali sobie po palcach, Jeff używa kilku trików. Uruchomione kopie Claude Code gadają ze sobą przez MCP Agent Mail — w praktyce e-mail dla AI. Tam omawiają architekturę, dzielą zadania, rezerwują pliki. Niektóre wątki mają po 1000+ wiadomości — i zero godzinnych synców na Zoomie.
Agenci mają też swój odpowiednik Jiry — zmodyfikowany system Beads, wymyślony przez Steve’a Yegge, ex-dev’a Google. Beads („koraliki”) to małe taski z priorytetami i zależnościami (dopóki A nie zrobione, B jest zablokowane). Plan pisze albo sam Jeff, albo GPT-5 Pro (tak, OpenAI też tu gra), a potem agenci rozbierają zadania między sobą, meldując to przez „pocztę”.
Na początku Jeff zaliczył klasyczny friendly fire. Dwóch agentów pracuje nad projektem: jeden zmienia kod, drugi to widzi, panikuje i robi rollback, kasując robotę kolegi. Emanuel napisał więc hook, który siedzi między agentem a terminalem i przechwytuje niebezpieczne komendy.
Problem w tym, że agenci są za mądrzy i regularnie próbują ten hook obejść — np. zamiast rm -rf (kasowanie bez litości) generują bashowy skrypt robiący dokładnie to samo. Efekt: system zabezpieczeń trzeba ciągle utwardzać. Brzmi jak wojna szefa z nadgorliwymi pracownikami.
Czym zajmuje się sam Jeff? Prawie nie kodzi. Nazywa siebie „high-level architect”. Scenariusz wygląda tak: na ekranie 20+ kart z agentami, którym rzuca komendy w stylu „weź następną bead”, „zrób code review” itd. Czasem trzeba też ręcznie gasić konflikty.
Mimo konieczności zarządzania ponad 20 agentami Emanuel twierdzi, że realnej, ludzkiej pracy wkłada w projekty o 90% mniej niż wcześniej. I ciągle szuka, jak jeszcze przyspieszyć — ostatnio zamówił vibe pedals, czyli pedały, pod które można przypisać komendy typu copy/paste.
Ciekawostka: niedawno Anthropic zbanował kilka kont Jeffa za podejrzanie wysoką aktywność. Zanim sprawę ogarnęli, zdążył kupić 11 subskrypcji GPT Pro — na wypadek ewakuacji. Po 4 godzinach konta odblokowano, a Jeff obiecał… trochę zwolnić.
Bo inaczej przyszłość nadejdzie za szybko.