AI in productie: waarom het nog steeds een rommeltje is
De demo zag er fantastisch uit. Drie maanden later: willekeurige outages, juridische risico's die niemand had voorzien, en een cloudprovider die zijn eigen productnamen niet kan onthouden. AI in productie is niet wat de verkooppraatjes beloven.
De demo zag er fantastisch uit. GPT-5.2 die juridische documenten samenvat, Azure die alles schaalt, en een AI-assistent die je klantenservice automatiseert. Drie maanden later zit je met een applicatie die willekeurig stopt met werken, juridische risico's die niemand had voorzien, en een cloudprovider die zijn eigen productnamen niet kan onthouden.
AI in productie is niet wat de verkooppraatjes beloven. Hier is wat er echt speelt.
Juridische documenten en AI: het CLOUD Act probleem
Laten we beginnen met iets waar bijna niemand over nadenkt totdat het te laat is: waar gaat je data naartoe?
Als je OpenAI, Azure OpenAI, of een ander Amerikaans AI-model gebruikt, valt je data onder de CLOUD Act. Die wet verplicht Amerikaanse bedrijven om data te verstrekken aan de US overheid, ongeacht waar de servers staan. Tegelijkertijd zegt de GDPR (Artikel 48) dat zulke buitenlandse verzoeken niet geldig zijn zonder internationaal verdrag. Het resultaat: een juridisch conflict waarbij Amerikaanse providers klem zitten tussen twee wetten. Dat is geen theoretisch probleem, het is een reeel risico voor elke organisatie die gevoelige data door een Amerikaans AI-model stuurt.
Voor de meeste toepassingen maakt dat niet uit. Maar zodra je juridische documenten, personeelsdossiers, medische gegevens, of contracten door een AI haalt, wordt dit relevant. Een verwerkersovereenkomst biedt geen bescherming tegen dit conflict, en standaard contractuele clausules zijn volgens de EDPB onvoldoende zonder aanvullende technische maatregelen zoals encryptie met eigen sleutelbeheer.
De Nederlandse legal tech markt is hier overigens al mee bezig. LegalPA biedt een ecosysteem voor advocaten waarbij data wordt geanonimiseerd. Legal Mind richt zich op AI-gestuurde juridische research en case-analyse voor advocatenkantoren. Dat is de juiste richting: verwerk nooit herkenbare persoonsgegevens via een extern AI-model zonder anonimisering.
Dit raakt direct aan waarom AI-projecten falen. Het probleem is niet de technologie, het is dat niemand nadenkt over de randvoorwaarden voordat ze beginnen te bouwen.
EU AI Act: augustus 2026, en niemand is klaar
Op 2 augustus 2026 wordt de EU AI Act volledig van kracht voor hoog-risico systemen. De boetes zijn gelaagd: tot 35 miljoen euro of 7% van de wereldwijde omzet voor verboden AI-toepassingen, tot 15 miljoen of 3% voor overige overtredingen, en tot 7,5 miljoen of 1% voor het verstrekken van onjuiste informatie. Dit is niet iets voor "later".
En toch: meer dan de helft van organisaties heeft geen systematische inventarisatie van hun AI-gebruik. Ze weten niet welke AI-systemen ze draaien, wie er verantwoordelijk voor is, of in welke risicocategorie ze vallen.
Wat de EU AI Act vereist voor hoog-risico systemen (Annex IV en Chapter III):
- Technische documentatie: hoe het systeem werkt, welke data het gebruikt, welke beperkingen het heeft
- Risicobeheersysteem: doorlopende identificatie en mitigatie van risico's
- Data governance: hoe trainingsdata is verzameld, gevalideerd, en bijgehouden
- Logging: automatische registratie van systeemgedrag voor traceerbaarheid
- Menselijk toezicht: een mens moet kunnen ingrijpen
- Transparantie: gebruikers moeten weten dat ze met AI te maken hebben
En belangrijk: dit geldt voor elk bedrijf dat EU-ingezetenen raakt, ongeacht waar het hoofdkantoor staat. Precies zoals de AVG. Dus ook als je Amerikaanse software gebruikt die AI-features heeft, val je eronder.
Voor het MKB voelt dit misschien als "dat is voor de grote jongens". Maar als je AI gebruikt voor HR-screening, kredietbeoordeling, of klantselectie, zit je al in de hoog-risico categorie. En dan moet je aan al die documentatie-eisen voldoen.
Azure en Microsoft: de infrastructuur die wankelt
Stel, je hebt de juridische kant onder controle. Je hebt geanonimiseerd, gedocumenteerd, en een risicoanalyse gedaan. Dan ga je deployen op Azure OpenAI, want dat is "enterprise grade".
En dan gaat het mis.
In maart 2026 had Azure OpenAI meerdere GPT-5.2 outages. Function calling die willekeurig faalde met 30-50% failure rates. Deployments die niet meer te updaten waren. Regionale inconsistenties waarbij dezelfde API in West Europe anders reageerde dan in Sweden Central. Sweden Central had op 27 januari 2026 een grote outage van zeven uur, waarbij EU-klanten met data-residency vereisten volledig stil kwamen te liggen.
Microsoft's reactie? Rebranden. Azure AI Studio werd eerst "Azure AI Foundry" (november 2024), en daarna "Microsoft Foundry" (november 2025). Twee rebrands in een jaar. Documentatie-links braken. Bestaande tutorials verwezen naar pagina's die niet meer bestonden. Developers moesten midden in productie-incidenten uitzoeken hoe het nieuwe portaal werkte.
Features lopen ook achter. Azure OpenAI's web search zit nog in preview via de Responses API, terwijl het reguliere OpenAI-platform het al lang standaard heeft. Je betaalt enterprise-prijzen voor een platform dat features later krijgt.
Het resultaat: Microsoft's aandeel daalde 7% op de dag van de Q2-cijfers, en 25% over heel Q1 2026, het slechtste kwartaal in twintig jaar. De oorzaak: een geschatte $146 miljard aan capital expenditure voor FY2026, teleurstellende Copilot-adoptie, en twijfels of de AI-investeringen zich terugverdienen.
Dit is geen Azure-bashing. AWS Bedrock en Google Vertex AI hebben vergelijkbare problemen. Het punt is: cloud AI-diensten zijn niet zo betrouwbaar als je gewend bent van traditionele cloud. Je kunt geen SLA van 99.9% verwachten als de onderliggende modellen regelmatig worden geüpdatet, gerebrand, of gewoon plat gaan.
Wat dit betekent voor het MKB
Als je een MKB-bedrijf bent dat AI wil inzetten, kijk je nu naar drie problemen tegelijk:
- Juridisch: CLOUD Act risico bij Amerikaanse modellen, EU AI Act compliance deadline augustus 2026
- Technisch: cloud AI-diensten die niet altijd beschikbaar of consistent zijn
- Organisatorisch: geen inventarisatie van huidig AI-gebruik, geen documentatie, geen verantwoordelijkheden
En de meeste "AI-adviseurs" verkopen je een ChatGPT wrapper en noemen het innovatie.
Ik schreef eerder over wat AI wel en niet kan. De lijst van "niet" wordt langer zodra je productie, wetgeving, en betrouwbaarheid meeneemt. Dat maakt AI niet waardeloos. Het maakt het iets waar je serieus over moet nadenken, in plaats van blind te implementeren.
Hoe je het wel aanpakt
Pragmatisch. Klein. Met je ogen open.
1. Inventariseer eerst. Welke AI gebruik je al? ChatGPT accounts van medewerkers, AI-features in je CRM, automatische e-mail categorisatie. Breng het in kaart voordat de EU dat voor je doet.
2. Classificeer je use cases. Niet alles is hoog-risico. Een AI die blogposts samenvat heeft andere eisen dan een AI die sollicitanten screent. Ken het verschil.
3. Anonimiseer by default. Stuur nooit herkenbare persoonsgegevens naar een extern AI-model als dat niet strikt noodzakelijk is. Dit lost 80% van je CLOUD Act en AVG-zorgen op.
4. Bouw fallbacks. Als Azure uitvalt, wat gebeurt er dan? Als je model wordt geüpdatet en anders reageert, hoe vang je dat op? Goede context engineering helpt, maar je hebt ook monitoring en fallback-logica nodig.
5. Documenteer nu, niet later. Begin vandaag met vastleggen welke AI je gebruikt, waarvoor, met welke data, en wie verantwoordelijk is. Augustus 2026 is dichter bij dan je denkt.
6. Begin met lage-risico toepassingen. Interne tooling, content generatie, data-analyse van niet-gevoelige data. Bewijs waarde daar, en breid uit als je de juridische en technische basis op orde hebt.
Dit sluit aan bij wat ik altijd zeg over AI-projecten: begin klein, meet resultaat, en schaal op als het werkt.
De realiteit accepteren
AI in productie is een puinhoop. Niet omdat de technologie slecht is, maar omdat de wereld eromheen (wetgeving, infrastructuur, organisaties) er nog niet klaar voor is. Dat verandert, maar langzamer dan de hype doet geloven.
De bedrijven die hier het best uitkomen zijn niet de bedrijven die het snelst AI implementeren. Het zijn de bedrijven die het het slimst doen. Die weten wat ze inzetten, waarom, en wat de risico's zijn. Die documenteren. Die klein beginnen en opschalen.
Wil je weten hoe jouw bedrijf AI kan inzetten zonder juridische risico's en technische hoofdpijn? Bekijk mijn diensten of neem contact op voor een vrijblijvend gesprek. Geen verkooppraatje, gewoon een eerlijk beeld van wat kan en wat niet.