Waarom kwaliteit nú op de boardroomagenda moet.

Er is een patroon dat telkens weer terugkomt in onze IT branche. Een golfbeweging. Het belang van softwarekwaliteit (en daarmee softwaretesten) beweegt mee met technologische vernieuwing, efficiencydrang en kortetermijnpolitiek. Eerst is testen cruciaal. Dan wordt de verantwoordelijkheid gedeeld. En vervolgens volledig weg geautomatiseerd.

What could possibly go wrong?

Maar het tij is nu toch echt gekeerd. Een tsunami komt in een rotgang op ons af. En hier zou in mijn ogen iedere bestuurder momenteel wakker van moeten liggen. Want AI verandert alles. Niet alleen het speelveld, maar ook de spelregels. Organisaties die softwarekwaliteit nu niet herwaarderen, raken de grip op hun IT – en daarmee op hun toekomst – voorgoed kwijt.

De kwaliteitsfunctie in golven

De evolutie van softwaretesten leest als een golfslag:

  • In de jaren 2000 was testen een duidelijke, afgebakende discipline. Testanalisten en testmanagers bewaakten de poort naar productie.
  • Tussen 2010 en 2015 kwam de shift left: iedereen in het team is verantwoordelijk voor kwaliteit. Goed idee, maar ook het startpunt van verwatering.
  • Vanaf 2015 werd testautomatisering de heilige graal. Tools zoals Selenium en Cypress maakten manuele regressietests overbodig. Althans, dat dachten we.
  • Met de komst van CI/CD (en DevOps-hypes) werd vanaf 2020 openlijk geroepen dat testers niet meer nodig zijn. Iedereen kan toch testen? De pipeline faalt toch als er iets mis is?
  • En nu, in 2025, komt de realiteit hard binnen. AI vraagt om een nieuw soort kwaliteit. Én om menselijk toezicht. Tegelijkertijd stelt Europese wetgeving strengere eisen aan bewijsvoering en audit-trails.

De vraag is niet langer of we effort moeten steken in softwarekwaliteit. De vraag is: “Hoe zorgen we dat onze testinformatie betrouwbare stuurinformatie wordt?”

Testautomatisering lost geen kwaliteitsvraagstuk op

De verwarring begon toen testautomatisering werd verward met teststrategie. Veel organisaties dachten: als we maar alles automatiseren, komt het vanzelf goed. Maar niets is minder waar.

Testautomatisering is een middel, geen doel. Het automatiseert een bestaand proces, maar dat proces moet dan wel kloppen. En daar wringt het. Veel teststrategieën zijn verouderd, incompleet of simpelweg niet afgestemd op de risico’s van vandaag. Dat wordt nog problematischer als AI z’n intrede doet.

AI maakt softwareontwikkeling sneller én riskanter

AI versnelt alles: codegeneratie, testgeneratie, foutdetectie. Maar AI maakt ook fouten. Soms subtiel, soms desastreus. Generatieve modellen kunnen hallucineren, bias versterken of code suggereren die niet werkt of zelfs onveilig is. En precies daarom moeten we scherp blijven en meer gaan valideren en toetsen.

Ook Satya Nadella (CEO Microsoft) sprak hier recent over in een interview: Als AI simpele taken overneemt, blijft het complexe werk over en dat vraagt om inzicht, toetsing en reflectie. Je hebt menselijke controle nodig om te verifiëren, te testen, te beslissen. Dat worden de banen van de toekomst.

Met andere woorden: AI versterkt je als je weet wat je doet. En breekt je op als je het blind vertrouwt.

Daarmee wordt testen opnieuw een kernactiviteit. Niet als “check” aan het eind, maar als toetssteen gedurende het hele proces. En dit keer niet alleen functioneel. Ook ethisch. Ook juridisch. Zelfs maatschappelijk.

(We schreven er overigens eerder al een manifest AI & Testen over. Download het hier)

AI moet óók getest worden

De inzet van AI vraagt om meer dan een paar extra testcases. Het vraagt om nieuwe vormen van testen:

  • Dynamisch testen van gegenereerde output. Denk bijv. aan juistheid, relevantie en originaliteit.
  • Validatie van modelgedrag: klopt wat het model doet wel met de bedoelingen? Check op onbedoelde acties, bijv. hallucinaties, ongewenste interpretaties van instructies.
  • Controle op bias en ongelijkheid: bevat het systeem oneerlijke aannames?
  • Controle op beveiligingsrisico’s in AI: kunnen prompt-injecties, context manipulatie e.d. de integriteit en veiligheid van AI-toepassingen bedreigen?
  • Continu monitoren van output en performance.
  • Check op transparantie & uitlegbaarheid. Van belang voor audits en compliance.

Dit soort testen is geen nice-to-have. Het is noodzakelijk. Want zodra je AI gebruikt in klantinteracties, besluitvorming of kernsystemen, neem je risico’s waarvoor de bestuurder aansprakelijk kan zijn.

En laat dat nu precies zijn waar actuele wetgeving ook op inzet.

De druk van DORA en NIS2

De Digital Operational Resilience Act (DORA) en NIS2 zijn geen technische richtlijnen, maar strategische raamwerken. Ze dwingen organisaties om hun digitale weerbaarheid aan te tonen met transparantie, reproduceerbaarheid en verantwoording. Voor softwareontwikkeling betekent dit o.m.:

  • Audittrails van testuitkomsten.
  • Traceability tussen risico’s, eisen, tests en releases.
  • Reproduceerbare foutanalyse.
  • Beheersbare inzet van AI in teststrategieën.

Zonder een goed testproces wordt dit een nachtmerrie. Maar met slimme tooling én menselijke toetsing wordt het een kans.

Testinformatie = stuurinformatie

Testen is nooit het eindpunt geweest. Het is het knooppunt waar alles samenkomt: code, bugs, aannames, proces, impact. Wie daar inzicht in heeft, heeft grip op kwaliteit. En grip op kwaliteit betekent grip op je organisatie én de toekomst.

Testinformatie is dus niet alleen waardevol voor de testers. Het is informatie waar vanuit de boardroom op gestuurd moet worden. Maar dan moet die data wel zichtbaar, begrijpelijk voor iedereen en betrouwbaar zijn. En dáár wringt het bij veel bedrijven.

Testresultaten zijn namelijk verspreid over tools, omgevingen en teams. Analyses zijn ad hoc. IT teams lopen over in het werk en tijd voor reflectie en onderhoud is er zelden. En niemand weet of we “klaar” zijn voor release of waar het risico écht zit. De consequentie? IT wordt onvoorspelbaar. Kwaliteit een gok. En incidenten komen als verrassing.

Dat moet – en kan – anders.

Het einde van de golfbeweging

We staan nu op een kruispunt. De tijd van twijfel (“hebben we testers nodig?”) is voorbij. Wetgeving en AI-technologie maken kwaliteit onweersproken relevant. Directies die dit niet zien, nemen risico’s die straks niet meer te verantwoorden zijn. Het is tijd voor structureel nadenken over kwaliteit.

Dat betekent dus:

  • Testinformatie opnemen in de KPI’s van de organisatie.
  • AI combineren met menselijke toetsing en domeinkennis.
  • Compliance als kwaliteitsmechanisme inzetten, niet als last.
  • Testinformatie centraal beheren als stuurinformatie voor besluitvorming.

Testen: van ondergeschoven kindje naar strategische pijler

Softwarekwaliteit is lang en inherent aan de golfbeweging het ondergeschoven kindje geweest. Te technisch voor de directie, te abstract voor productowners, te fragmentarisch voor sturing.

Maar dat verandert. En dat moet ook. Testen is geen sluitpost meer. Testen is een strategisch instrument. En wie het nu nog niet op de boardroomagenda zet, roeit niet achterop maar is verdronken.

 

Vond je dit artikel interessant? Deel het op social media!