Terug naar blog
AI in de praktijk 6 min leestijd

AI in productie: waarom het nog steeds een kutzooi is

De demo zag er fantastisch uit. Drie maanden later: willekeurige outages, juridische risico's die niemand had voorzien, en een cloudprovider die zijn eigen productnamen niet kan onthouden. AI in productie is niet wat de verkooppraatjes beloven.

De demo zag er fantastisch uit. GPT-5.2 die juridische documenten samenvat, Azure die alles schaalt, en een AI-assistent die je klantenservice automatiseert. Drie maanden later zit je met een applicatie die willekeurig stopt met werken, juridische risico's die niemand had voorzien, en een cloudprovider die zijn eigen productnamen niet kan onthouden.

AI in productie is niet wat de verkooppraatjes beloven. Hier is wat er echt speelt.

Juridische documenten en AI: het CLOUD Act probleem

Laten we beginnen met iets waar bijna niemand over nadenkt totdat het te laat is: waar gaat je data naartoe?

Als je OpenAI, Azure OpenAI, of een ander Amerikaans AI-model gebruikt, valt je data onder de CLOUD Act. Dat betekent dat de Amerikaanse overheid toegang kan eisen tot data die in Amerikaanse AI-modellen wordt verwerkt. Ongeacht waar de servers staan. Ongeacht of je een Europees bedrijf bent.

Voor de meeste toepassingen maakt dat niet uit. Maar zodra je juridische documenten, personeelsdossiers, medische gegevens, of contracten door een AI haalt, wordt dit een reeel risico. En "we hebben een verwerkersovereenkomst" is geen antwoord op een Amerikaans gerechtelijk bevel.

De Nederlandse legal tech markt is hier overigens al mee bezig. Tools als LegalPA anonimiseren documenten automatisch voordat ze naar een AI-model gaan. Legal Mind doet juridische case-analyse op geanonimiseerde data. Dat is de juiste aanpak: verwerk nooit herkenbare persoonsgegevens via een extern AI-model zonder anonimisering.

Dit raakt direct aan waarom AI-projecten falen. Het probleem is niet de technologie, het is dat niemand nadenkt over de randvoorwaarden voordat ze beginnen te bouwen.

EU AI Act: augustus 2026, en niemand is klaar

Op 2 augustus 2026 wordt de EU AI Act volledig van kracht. Boetes tot 35 miljoen euro of 7% van de wereldwijde omzet, afhankelijk van wat hoger is. Dit is niet iets voor "later".

En toch: meer dan de helft van organisaties heeft geen systematische inventarisatie van hun AI-gebruik. Ze weten niet welke AI-systemen ze draaien, wie er verantwoordelijk voor is, of in welke risicocategorie ze vallen.

Wat de EU AI Act vereist (Annex IV, voor hoog-risico systemen):

  • Technische documentatie: hoe het systeem werkt, welke data het gebruikt, welke beperkingen het heeft
  • Risicobeheersysteem: doorlopende identificatie en mitigatie van risico's
  • Data governance: hoe trainingsdata is verzameld, gevalideerd, en bijgehouden
  • Logging: automatische registratie van systeemgedrag voor traceerbaarheid
  • Menselijk toezicht: een mens moet kunnen ingrijpen
  • Transparantie: gebruikers moeten weten dat ze met AI te maken hebben

En belangrijk: dit geldt voor elk bedrijf dat EU-ingezetenen raakt, ongeacht waar het hoofdkantoor staat. Precies zoals de AVG. Dus ook als je Amerikaanse software gebruikt die AI-features heeft, val je eronder.

Voor het MKB voelt dit misschien als "dat is voor de grote jongens". Maar als je AI gebruikt voor HR-screening, kredietbeoordeling, of klantselectie, zit je al in de hoog-risico categorie. En dan moet je aan al die documentatie-eisen voldoen.

Azure en Microsoft: de infrastructuur die wankelt

Stel, je hebt de juridische kant onder controle. Je hebt geanonimiseerd, gedocumenteerd, en een risicoanalyse gedaan. Dan ga je deployen op Azure OpenAI, want dat is "enterprise grade".

En dan gaat het mis.

In maart 2026 had Azure OpenAI meerdere GPT-5.2 outages. Function calling die willekeurig faalde. Deployments die niet meer te updaten waren. Regionale inconsistenties waarbij dezelfde API in West Europe anders reageerde dan in Sweden Central. Sweden Central had in januari 2026 al weken capaciteitsproblemen.

Microsoft's reactie? Rebranden. Azure AI Studio werd "Foundry". Documentatie-links braken. Bestaande tutorials verwezen naar pagina's die niet meer bestonden. Developers moesten midden in een productie-incident uitzoeken hoe het nieuwe portaal werkte.

Oh, en Azure OpenAI mist nog steeds native web search die het reguliere OpenAI-platform wel heeft. Je betaalt meer voor minder features.

Het resultaat: Microsoft's aandeel daalde 5% na tegenvallende Azure groei. Capaciteitsproblemen, niet genoeg GPU's, en klanten die vastliepen op wachtlijsten voor de nieuwste modellen.

Dit is geen Azure-bashing. AWS Bedrock en Google Vertex AI hebben vergelijkbare problemen. Het punt is: cloud AI-diensten zijn niet zo betrouwbaar als je gewend bent van traditionele cloud. Je kunt geen SLA van 99.9% verwachten als de onderliggende modellen regelmatig worden geüpdatet, gerebrand, of gewoon plat gaan.

Wat dit betekent voor het MKB

Als je een MKB-bedrijf bent dat AI wil inzetten, kijk je nu naar drie problemen tegelijk:

  • Juridisch: CLOUD Act risico bij Amerikaanse modellen, EU AI Act compliance deadline augustus 2026
  • Technisch: cloud AI-diensten die niet altijd beschikbaar of consistent zijn
  • Organisatorisch: geen inventarisatie van huidig AI-gebruik, geen documentatie, geen verantwoordelijkheden

En de meeste "AI-adviseurs" verkopen je een ChatGPT wrapper en noemen het innovatie.

Ik schreef eerder over wat AI wel en niet kan. De lijst van "niet" wordt langer zodra je productie, wetgeving, en betrouwbaarheid meeneemt. Dat maakt AI niet waardeloos. Het maakt het iets waar je serieus over moet nadenken, in plaats van blind te implementeren.

Hoe je het wel aanpakt

Pragmatisch. Klein. Met je ogen open.

1. Inventariseer eerst. Welke AI gebruik je al? ChatGPT accounts van medewerkers, AI-features in je CRM, automatische e-mail categorisatie. Breng het in kaart voordat de EU dat voor je doet.

2. Classificeer je use cases. Niet alles is hoog-risico. Een AI die blogposts samenvat heeft andere eisen dan een AI die sollicitanten screent. Ken het verschil.

3. Anonimiseer by default. Stuur nooit herkenbare persoonsgegevens naar een extern AI-model als dat niet strikt noodzakelijk is. Dit lost 80% van je CLOUD Act en AVG-zorgen op.

4. Bouw fallbacks. Als Azure uitvalt, wat gebeurt er dan? Als je model wordt geüpdatet en anders reageert, hoe vang je dat op? Goede context engineering helpt, maar je hebt ook monitoring en fallback-logica nodig.

5. Documenteer nu, niet later. Begin vandaag met vastleggen welke AI je gebruikt, waarvoor, met welke data, en wie verantwoordelijk is. Augustus 2026 is dichter bij dan je denkt.

6. Begin met lage-risico toepassingen. Interne tooling, content generatie, data-analyse van niet-gevoelige data. Bewijs waarde daar, en breid uit als je de juridische en technische basis op orde hebt.

Dit sluit aan bij wat ik altijd zeg over AI-projecten: begin klein, meet resultaat, en schaal op als het werkt.

De realiteit accepteren

AI in productie is een puinhoop. Niet omdat de technologie slecht is, maar omdat de wereld eromheen (wetgeving, infrastructuur, organisaties) er nog niet klaar voor is. Dat verandert, maar langzamer dan de hype doet geloven.

De bedrijven die hier het best uitkomen zijn niet de bedrijven die het snelst AI implementeren. Het zijn de bedrijven die het het slimst doen. Die weten wat ze inzetten, waarom, en wat de risico's zijn. Die documenteren. Die klein beginnen en opschalen.

Wil je weten hoe jouw bedrijf AI kan inzetten zonder juridische risico's en technische hoofdpijn? Bekijk mijn diensten of neem contact op voor een vrijblijvend gesprek. Geen verkooppraatje, gewoon een eerlijk beeld van wat kan en wat niet.

Wil je dit soort oplossingen in je eigen organisatie?

Vragen over dit onderwerp?

Ik denk graag mee over hoe dit toepasbaar is voor jouw situatie.

Deze site gebruikt cookies voor analytics. Privacybeleid