Scrum4Me/docs/Ideas/ai-driven-scrum-planning-research.md
Janpeter Visser b39c3ec2e1
docs(cleanup): archief verouderde plannen, backlog en root-duplicaten (#191)
* docs(cleanup): archief verouderde plannen, backlog en root-duplicaten

- 6 plans naar docs/old/plans/ (PBI-11/75/78, user-settings-store, Local github setup, lees-de-readme — laatste was verkeerde repo)
- docs/backlog/ naar docs/old/backlog/ (pre-MCP statische registry; live werk loopt via Scrum4Me-MCP)
- 6 root-level duplicaten naar docs/old/ (functional, {pbi,story,task}-dialog, product-backlog, backlog)
- 2 landing plans (niet uitgevoerd) krijgen archived: true frontmatter — blijven op plek maar uit INDEX
- scripts/generate-docs-index.mjs: skip docs/old/** + skip archived: true
- CLAUDE.md: rijen docs/backlog/, docs/plans/<key>-*.md, docs/manual/ weg; Track B-sectie verwijderd
- README.md / CHANGELOG.md / docs/plans/v1-readiness.md: link-fixes naar nieuwe locaties

Verify groen (lint + typecheck + 718 tests). docs/INDEX.md geregenereerd.

Co-Authored-By: Claude Opus 4.7 (1M context) <noreply@anthropic.com>

* docs(cleanup): registreer handmatige verplaatsingen en fix referenties

- 4 plans verplaatst naar docs/old/plans/ (M10-qr-pairing-login, auto-pr-deploy-sync, docs-restructure-ai-lookup, v1-readiness)
- 3 archive-plans verplaatst naar docs/old/plans/ (archive-map nu leeg)
- ST-1114-copilot-reviews + 3 research-docs naar nieuwe docs/Ideas/ map
- Duplicaat docs/old/2026-04-27-m8-realtime-solo.md verwijderd (origineel zit in docs/old/plans/)
- Link-fixes naar nieuwe locaties:
  - CHANGELOG.md → docs/old/plans/v1-readiness.md
  - docs/runbooks/deploy-control.md → docs/old/plans/auto-pr-deploy-sync.md (2x)
  - docs/runbooks/worker-idempotency.md → docs/old/plans/auto-pr-deploy-sync.md
  - docs/plans/docs-restructure-pbi-spec.md → docs/old/plans/docs-restructure-ai-lookup.md (4x text + 2x href)
- docs/INDEX.md geregenereerd (96 docs, was 100)

Co-Authored-By: Claude Opus 4.7 (1M context) <noreply@anthropic.com>

---------

Co-authored-by: Claude Opus 4.7 (1M context) <noreply@anthropic.com>
2026-05-11 19:46:00 +02:00

13 KiB

title status audience language last_updated
Onderzoek — AI-gedreven programmeren en Scrum planning draft
product
ai-agent
nl 2026-05-11

Onderzoek — AI-gedreven programmeren en Scrum planning

Vraag

Wat is het effect van AI-assisted / AI-driven programming op de manier waarop we Scrum toepassen, als werk niet meer in 1-2 weekse sprints hoeft te worden gepland maar in meerdere uitvoercycli per dag kan worden gerealiseerd? Wat gebeurt er met burndown, velocity en planning als tokengebruik, verificatie en agent-efficiency belangrijker worden?

Korte conclusie

AI maakt Scrum niet overbodig, maar verandert waar Scrum op moet sturen.

Traditionele sprintplanning gebruikt vaak velocity/story points als proxy voor menselijke uitvoercapaciteit. In AI-gedreven ontwikkeling wordt menselijke typ-/bouwtijd veel minder voorspelbaar als bottleneck. De nieuwe bottlenecks zijn:

  • helderheid van productbeslissingen;
  • kwaliteit van backlog-items en acceptatiecriteria;
  • beschikbare context voor agents;
  • verificatiecapaciteit: tests, review, security, deploy;
  • tokenkosten en modelkeuze;
  • rework door foutieve of half-passende AI-output.

Daarom moet planning verschuiven van "hoeveel story points kunnen we in twee weken doen?" naar "welke waardevolle hypothese kunnen we nu veilig laten uitvoeren, verifieren en leren, binnen een token- en reviewbudget?"

Wat de bronnen laten zien

1. Het empirische bewijs is gemengd

Onderzoek naar Copilot liet in een gecontroleerde programmeertaak zien dat deelnemers met Copilot de taak 55,8% sneller voltooiden. Een latere Microsoft-studie met drie field experiments bij 4.867 developers vond gemiddeld 26,08% meer voltooide taken bij developers met AI-code-completion.

Tegelijk vond METR in 2025 in een realistische RCT met ervaren open-source developers dat AI-tools taken juist 19% langzamer maakten. De taken waren echte issues in grote codebases die developers goed kenden. METR waarschuwt zelf tegen te brede generalisatie, maar het resultaat is belangrijk: AI-snelheid hangt sterk af van taaktype, codebase-context, kwaliteitslat en meetmethode. In 2026 gaf METR bovendien aan dat het meten van AI-uplift lastiger wordt doordat developers liever niet meer zonder AI werken en doordat sommige developers meerdere agents tegelijk gebruiken.

Implicatie: Scrum4Me moet geen vaste productiviteitsfactor aannemen. Meet per product, per agent-run en per taaktype.

2. DORA: AI is een versterker, geen oplossing

DORA 2025 concludeert dat AI vooral een amplifier is: het versterkt bestaande sterke en zwakke punten. Google rapporteert bijna universele adoptie, veel ervaren individuele productiviteitswinst, maar ook een vertrouwensparadox en complexere effecten op organisatorische performance.

DORA's AI Capabilities Model noemt zeven randvoorwaarden die AI-effecten versterken:

  • duidelijke AI-stance/policy;
  • gezonde data-ecosystemen;
  • AI-toegankelijke interne data;
  • sterke version-control-praktijken;
  • kleine batches;
  • user-centric focus;
  • kwalitatieve interne platforms.

Voor Scrum betekent dit: de sprint moet niet groter worden omdat agents sneller code schrijven. De batch moet kleiner worden, met scherpere feedback.

3. Agile verschuift naar outcome- en governance-gedreven planning

Digital.ai's 18th State of Agile beschrijft AI als een verschuiving van ondersteunende tool naar orchestrator van de delivery lifecycle. Tegelijk noemt het rapport hogere ROI-druk, governance-lag en de noodzaak om Agile-investeringen aan meetbare business outcomes te koppelen.

Implicatie: velocity en burndown zijn onvoldoende als hoofdmetrics. Ze laten activiteit zien, geen waarde, geen kosten en geen risico.

4. Tokengebruik wordt economisch relevant, maar is geen doel op zichzelf

Stanford Digital Economy Lab vond in 2026 dat agentic coding tasks veel token-intensiever zijn dan code chat/reasoning, dat inputtokens de kosten domineren, dat runs op dezelfde taak tot 30x kunnen verschillen in tokengebruik, en dat meer tokens niet automatisch meer accuracy opleveren.

Jellyfish analyseerde 12.000 developers bij 200 bedrijven en vond dat meer tokengebruik wel met meer output correleert, maar disproportioneel duurder wordt. De topgebruikers haalden ongeveer twee keer zoveel PR-throughput, maar met ongeveer tien keer zoveel tokens per PR.

Implicatie: tokenusage is een cost/efficiency-signaal, geen prestatiebadge. "Tokenmaxxing" is net zo gevaarlijk als velocity maximaliseren.

Wat verandert aan Scrum?

Sprint

De Sprint blijft nuttig als container voor focus, inspectie en adaptatie. Maar bij AI-gedreven werk is een sprint minder een capaciteitsmandje voor menselijke arbeid en meer een beslis- en leerhorizon.

Advies:

  • Gebruik "Sprint" voor productfocus en Sprint Goal.
  • Gebruik "AI runs" of "execution cycles" binnen de sprint voor 1-4 uitvoercycli per dag.
  • Noem 4 cycli per dag liever geen 4 Scrum-sprints, tenzij je ook echt 4 keer Sprint Planning, Review en Retrospective wilt doen. Dat levert ceremonie-overhead op.

Sprint Planning

Planning verschuift van effort forecast naar control loop.

Oude vraag:

  • Hoeveel werk kunnen we deze sprint doen?

Nieuwe vraag:

  • Welke waardevolle slice is klaar voor agent-uitvoering?
  • Welke context en tests maken het veilig?
  • Welk model/mode/budget past bij risico en complexiteit?
  • Hoe weten we binnen 30-120 minuten of dit goed genoeg is?
  • Wat is de maximale token- en reviewspend voor deze poging?

Daily Scrum

Daily Scrum wordt minder statusmeeting en meer flow-control:

  • Welke agent-runs zijn afgerond, geblokkeerd of failed?
  • Waar zit de verificatiequeue?
  • Welke Product Owner-beslissing ontbreekt?
  • Welke context ontbreekt waardoor tokens of rework oplopen?
  • Moeten we scope heronderhandelen zonder het Sprint Goal te beschadigen?

Bij 4 runs per dag kan een korte "run review" na elke run de Daily Scrum deels vervangen.

Sprint Review

Review wordt frequenter en meer outcome-gericht:

  • Wat is echt geaccepteerd en bruikbaar?
  • Welke hypothese is gevalideerd?
  • Wat is alleen code-output maar nog geen waarde?
  • Welke user feedback of runtime data hebben we?

Retrospective

Retrospective moet expliciet AI-systemen verbeteren:

  • Welke prompts, contextbestanden of specs verminderden rework?
  • Welke modelkeuzes waren te duur of te zwak?
  • Waar faalden tests/reviews te laat?
  • Welke taken waren slecht voorbereid voor agents?
  • Waar waren menselijke beslissingen de bottleneck?

Nieuwe planningshiërarchie

Een praktisch model voor Scrum4Me:

Laag Cadans Doel Output
Product Goal / roadmap weken-maanden richting en waarde product outcomes, prioriteiten
Sprint 1 dag tot 1 week focus en leerdoel Sprint Goal, selected PBIs/stories, budget
AI execution run 1-3 uur concrete slice bouwen/verifieren PR/diff, testresultaat, token/cost telemetry
Agent job minuten-uren taak uitvoeren logs, patch, status, vragen

Voor solo/kleine teams met Scrum4Me is een dag-sprint of week-sprint met meerdere AI runs realistischer dan 4 volledige Scrum-sprints per dag.

Nieuwe metrics

Behoud, maar herinterpreteer

  • Lead time: idee/story -> geaccepteerde productie-wijziging.
  • Cycle time: taak/run start -> done.
  • Deployment frequency.
  • Change failure rate.
  • MTTR.
  • Escaped defects.

Deze blijven belangrijker dan velocity.

Vervang velocity als hoofdmetric

Velocity/story points kunnen nog gespreksmateriaal zijn voor complexiteit en onzekerheid, maar niet meer als centrale capaciteitsmetric.

Betere hoofdmetrics:

  • accepted increments per dag/week;
  • validated outcomes per week;
  • lead time per PBI/story;
  • verification queue time;
  • change failure rate na AI-runs;
  • rework rate na review;
  • human intervention rate;
  • agent first-pass success rate.

Voeg token-economie toe

Nuttige tokenmetrics:

  • tokens per accepted task;
  • tokens per merged PR;
  • tokens per validated outcome;
  • tokens per failed/abandoned run;
  • input/output/cache-token mix;
  • cost per accepted task;
  • cost per defect fixed;
  • review minutes per 1M tokens;
  • token spend by model/mode/job-kind;
  • wasted tokens: output niet gebruikt, failed loops, repeated context discovery.

Belangrijke waarschuwing: tokens zijn een input-cost, geen output-value. Gebruik ze als budget en efficiency-signaal, niet als score.

Nieuwe samengestelde metric

Voor Scrum4Me zou een nuttige metric kunnen zijn:

AI Delivery Efficiency =
  accepted value units
  / (token cost + human review time + elapsed time + rework penalty)

In de praktijk kan dit simpeler:

accepted_tasks_per_euro
accepted_tasks_per_1M_tokens
merged_PRs_per_review_hour
validated_outcomes_per_day

Definition of Ready voor AI

Een story/task is AI-ready als:

  • het gewenste gedrag concreet is;
  • acceptatiecriteria testbaar zijn;
  • relevante files, patronen en docs bekend of vindbaar zijn;
  • non-goals en scopegrenzen expliciet zijn;
  • risico duidelijk is: laag/middel/hoog;
  • vereiste verificatie bekend is;
  • tokenbudget/model/mode is gekozen;
  • open productvragen zijn beantwoord of expliciet buiten scope gezet.

Definition of Done voor AI

Done betekent niet "agent heeft code geschreven". Done betekent:

  • diff/PR is geaccepteerd;
  • tests/lint/typecheck/build passend bij risico zijn groen;
  • security/privacy/demo-mode checks zijn gedaan waar relevant;
  • menselijke review is gedaan voor risicovolle of user-facing wijzigingen;
  • tokenusage/cost is gelogd;
  • rework/lessons zijn teruggekoppeld naar prompt, docs of backlog;
  • productwaarde is zichtbaar of meetbaar.

Voorstel voor Scrum4Me planning

1. Sprint als focuscontainer

Maak een sprint niet langer primair een verzameling werk voor 1-2 weken, maar een focuscontainer:

  • Sprint Goal;
  • geselecteerde PBI's/stories;
  • AI-run budget;
  • verificatie-WIP-limiet;
  • risico-policy.

2. AI Runs binnen de sprint

Voeg of gebruik een concept als SprintRun:

  • PLANNED -> RUNNING -> VERIFYING -> ACCEPTED | REWORK | FAILED | ABANDONED
  • gekoppelde ClaudeJobs / agent jobs;
  • model/mode snapshot;
  • tokenbudget en werkelijk tokengebruik;
  • affected stories/tasks;
  • testresultaat;
  • reviewbeslissing.

3. Planningproces per run

  1. Selecteer een kleine slice uit de Sprint Backlog.
  2. Controleer AI-ready criteria.
  3. Kies model/mode/tokenbudget.
  4. Start agent jobs.
  5. Verzamel patch, logs, testresultaten en tokenusage.
  6. Verifieer.
  7. Accepteer, stuur terug voor rework, of stop de run.
  8. Update backlog en metrics.

4. Dashboard-shift

Vervang klassieke burndown als primaire grafiek door:

  • token burnup vs accepted outcomes;
  • verification queue;
  • accepted/rework/failed runs;
  • lead time distribution;
  • cost per accepted task;
  • change failure / rollback rate;
  • remaining uncertainty per Sprint Goal.

Burndown kan blijven als "remaining selected stories/tasks", maar niet als performance-meter.

Productimplicaties voor Scrum4Me

  1. Voeg token/cost telemetry toe aan ClaudeJob en SprintRun.
  2. Maak AI-run planning zichtbaar op de Sprint-pagina.
  3. Voeg AI Ready checks toe aan story/task dialogs of een planning pane.
  4. Maak verification WIP expliciet: niet meer agents starten dan je kunt verifieren.
  5. Voeg budgetrails toe: per sprint, per run, per task, per model.
  6. Rapporteer tokenusage altijd naast outcome: token-only dashboards sturen verkeerd gedrag.
  7. Maak retrospectives data-driven: prompt/context/model/test-strategie verbeteren.

Bronnen