Lessons Learned tijdens het implementeren van AI

Epublic overleg

De afgelopen jaren heb ik aan meerdere projecten gewerkt met grote taalmodellen (LLM’s). Sommige daarvan waren onderzoeksgericht, met als doel praktische toepassingen te identificeren binnen complexe omgevingen zoals nationale overheden en grote ondernemingen. Andere projecten waren juist zeer praktisch. De uitdagingen die ik tegenkwam, besloegen ethische, organisatorische en technische dimensies.

In deze serie duik ik in de belangrijkste lessen die ik heb geleerd uit praktijkprojecten. De voorbeelden zijn geanonimiseerd om privacy te waarborgen, maar de inzichten zijn zo authentiek als ze maar kunnen zijn.

Navigeren door ethische overwegingen

Ethische uitdagingen stonden altijd voorop. Voorbeelden hiervan zijn:

  • Hoe Waarborgen we privacy en naleving van de wetgeving inzake gegevensbescherming?
  • Wat zijn de auteursrechtelijke implicaties in een door AI gegenereerde wereld?
  • Kunnen we LLM’s gebruiken, aangezien zij getraind zijn met auteursrechtelijk beschermd materiaal, terwijl de wet (EU/NL) ons verbiedt om deze te gebruiken?
  • Kunnen we een LLM vertrouwen om consistente antwoorden te geven?
  • Wat is de milieu-impact van het inzetten en gebruiken van grote modellen?

Veel van deze vragen hebben geen eenduidig antwoord, maar ze vereisen voortdurende evaluatie en transparantie om AI-technologieën op een verantwoorde manier in te zetten.

Organisatorische barrières voor adoptie

Het implementeren van LLM’s in grote organisaties bracht typische obstakels aan het licht die bij iedere innovatie voorkomen:

  • Bureaucratie en trage besluitvorming.
  • Diverse belangen van stakeholders (juridisch, security, IT, management).
  • Angst voor het onbekende: “Maakt AI mijn baan overbodig?” of “Wat als het faalt?”

Het begrijpen van deze dynamiek is cruciaal. Empathie helpt: weerstand komt vaak voort uit valide zorgen die erkend en opgelost moeten worden.

Technische uitdagingen bij implementatie

Op technisch vlak wordt het snel complex. Enkele van de meest urgente uitdagingen waren:

  • LLM-systemen opschalen binnen de organisatie.
  • LLM’s draaien on-premises of in een private cloud.
  • Gegevensbronnen up-to-date houden.
  • Correcte toegangscontroles tot data afdwingen.
  • Nieuwe AI-workflows integreren in bestaande IT-infrastructuur.

De technische infrastructuur moet zich ontwikkelen naast stevige governance-praktijken om controle te behouden en prestaties te waarborgen.

Praktische lessen

Hier is een verzameling lessen die ik heb geleerd in de dagelijkse praktijk. Ze staan niet in volgorde van belangrijkheid, maar elk van deze inzichten maakte een aanzienlijk verschil.

1. Eerst interne processen verduidelijken

Voordat je aan de slag gaat met AI, zorg dat organisatorische procedures en standaardwerkwijzen (SOP’s) duidelijk zijn gedefinieerd. Dit helpt om de zakelijke context te begrijpen en om dezelfde taal als de stakeholders te spreken.

2. Klein beginnen en geleidelijk opschalen

Probeer niet alles tegelijk aan te pakken, dat gaat mis. Richt je op het oplossen van één probleem tegelijk. Bijvoorbeeld:

In plaats van alle documenten binnen een onderneming te indexeren, begin met een duidelijk afgebakende, kleine subset.

Zodra je de waarde hebt aangetoond en stakeholders vroeg betrekt, volgen enthousiasme en momentum vanzelf. Plan vooruit voor opschaling, maar laat dat je initiële implementatie niet vertragen.

3. Doelgericht blijven

Het is makkelijk om het oorspronkelijke doel uit het oog te verliezen in de complexiteit van AI-systemen. Blijf gefocust op wat je wilt bereiken en stem elke iteratie af op dat doel.

4. Verwachtingen van stakeholders managen

Het is cruciaal om stakeholders enthousiast te krijgen, maar wees je ervan bewust dat enthousiasme kan leiden tot onrealistische verwachtingen en strakke deadlines. Het balanceren van enthousiasme met realistische roadmaps is een essentiële vaardigheid.

5. LLM’s zijn niet automatisch betrouwbaar

LLM’s genereren vloeiende en overtuigende teksten. Ze drukken nooit twijfel, zorgen of nuances uit; alles is zwart-wit,  maar dat betekent niet dat de output betrouwbaar is en zeker niet dat het de waarheid is. Zo verklein je het risico op misinformatie:

  • Leer gebruikers om niet aan te nemen dat een LLM altijd gelijk heeft.
  • Ontwerp de gebruikersinterface zodanig dat onzekerheid of gebrek aan waarheid zichtbaar is.
  • Toon altijd de bron van informatie, vooral bij Retrieval-Augmented Generation (RAG)-systemen.

6. Vermijd antropomorfisme

Onthoud: een LLM is geen persoon. Het denkt, voelt of begrijpt niet. Gebruik “het” in plaats van “hij”, “zij” of “they” bij verwijzing naar een LLM. Vermijd het toekennen van een persoonlijkheid of agency. Zo behouden gebruikers een realistisch beeld.

Antropomorfisme is het toekennen van menselijke eigenschappen aan niet-menselijke entiteiten. Trap hier niet in.

7. Latency: een verborgen UX-uitdaging

Wachten op een respons van 10 seconden (of meer) is niet ongewoon. Bij het inzetten van “agents” kan die vertraging toenemen. Vanuit UX-perspectief is dit significant.

  • Denk na over hoe de wachttijd acceptabel kan aanvoelen.
  • Gebruik voortgangsindicaties of transparantie om te laten zien wat er gebeurt.
  • Vraag jezelf altijd af: kan traditionele businesslogica dit sneller oplossen?

Het is de moeite waard om jezelf meerdere keren af te vragen of AI het juiste hulpmiddel is voor deze taak.

Het is interessant te beseffen dat er de afgelopen decennia ontzettend veel code is geschreven en herschreven om milliseconden te besparen en de UX te optimaliseren. Nu werken we met vertragingen van meerdere seconden. Dit roept de vraag op waarom we dit accepteren en of een LLM-interactie of “agent” echt beter is dan traditionele logica.

8. Wees bewust van de milieu-impact

LLM’s verbruiken enorme rekenkracht. Het uitvoeren van een enkele query vereist high-performance hardware, waardoor het energieverbruik veel hoger ligt dan bij traditionele databasequeries.

Vraag altijd: is een LLM hier echt nodig, of is er een groenere oplossing?

9. Begrijp de grenzen van “agents”

AI-agents kunnen nuttig zijn, maar zijn verre van een vervanging van een mens:

  • Agents zijn goed in specifiek gedefinieerde taken — verwacht geen improvisatie of contextueel begrip.
  • Output van agents is probabilistisch en kan variëren, in tegenstelling tot deterministische code.
  • Complexiteit neemt toe met elk extra agent.

Houd het simpel. Begin met één agent en begrijp het onderhoud en de waarde voordat je opschaalt.

10. Prompt engineering is een kunst (min of meer)

Goede prompts maken vergt iteratie en experimenteren. Tips:

  • Geef voldoende voorbeelden.
  • Let op de structuur — belangrijke informatie werkt vaak beter aan het eind.
  • Test veel en pas aan.

11. Test vroeg, test vaak

Zoals bij iedere softwarefunctie moeten LLM-integraties grondig getest worden. Hoe eerder testcases ingebouwd worden, hoe makkelijker het is wanneer je gekozen model wordt vervangen of verouderd.

12. Onderwijs je klanten

Zorg dat klanten begrijpen:

  • Hoe LLM’s werken.
  • Waar ze goed in zijn.
  • Waar ze tekortschieten.

Dit stelt klanten in staat effectief mee te denken en samen te werken.

13. Wees niet bang voor de kosten van het model

Ja, tokens kosten geld — maar als je AI-oplossing iemand 15 minuten werk bespaart, is de ROI gemakkelijk te rechtvaardigen. Houd de kosten in perspectief ten opzichte van de bespaarde tijd en waarde.

Afronding

Dat is genoeg voor vandaag — en we hebben nog maar het oppervlak geraakt. Als er één boodschap is, is het dit: AI-implementatie gaat niet alleen over technologie. Het is een delicate balans tussen mensen, processen, ethiek en architectuur.

Ik deel binnenkort meer in het volgende deel van deze serie. Stay tuned!

Wilt u meer informatie?

Bent u op zoek naar verandering en innovatieve uitdagingen?
Digitalisering en toegepaste innovatie in de publieke sector en zorg.
Contactgegevens
Tappersweg 14-47 2031 EV Haarlem
Peizerweg 97 9727 AJ Groningen
ePublic Solutions 2025. Alle rechten voorbehouden. | Webdesign: Jak Design®