Luciano Currie

Luciano Currie

Share this post

Luciano Currie
Luciano Currie
Boost voor Nederlands AI-model GPT-NL | AI kraakt de code van menselijk redeneren | De AI-agent die op hol sloeg
THE HUMAN LOOP

Boost voor Nederlands AI-model GPT-NL | AI kraakt de code van menselijk redeneren | De AI-agent die op hol sloeg

PLUS: waarom een Nederlands techbedrijf stopt met werven door AI en een Europees alternatief voor ChatGPT

Luciano Currie's avatar
Luciano Currie
Jul 25, 2025
∙ Paid

Share this post

Luciano Currie
Luciano Currie
Boost voor Nederlands AI-model GPT-NL | AI kraakt de code van menselijk redeneren | De AI-agent die op hol sloeg
Share

Is je nieuwe AI-assistent een genie of een complete idioot? Deze week was het antwoord op beide vragen een volmondig 'ja'.

Terwijl het ene model wiskundige problemen op Olympisch niveau oploste, gedroeg een ander zich als een paniekerige stagiair en wiste iemands hele bedrijf. Tegelijkertijd krijgt ons eigen Nederlandse taalmodel, GPT-NL, eindelijk de brandstof die het zo hard nodig heeft om serieus genomen te worden.

De AI-wereld is op dit moment compleet schizofreen. De kansen zijn groter dan ooit, maar de risico's zijn reëel en pijnlijk concreet.

In deze editie:

  • Hoe een unieke samenwerking ons eigen Nederlandse taalmodel, GPT-NL, een cruciale impuls geeft.

  • De fundamentele doorbraak: hoe AI de code van wiskundig redeneren kraakt.

  • De harde les van een AI-agent die een complete database wiste en erover loog.

  • PLUS: Waarom een Nederlands techbedrijf stopt met werven door AI en wat dit betekent voor de arbeidsmarkt.

  • PLUS: Een Europees alternatief voor ChatGPT dat je bedrijfsdata wél beschermt.


Een eigen AI-model voor Nederland krijgt een stevige impuls

Image Credits: GPT-NL.nl

Wie ooit een AI-assistent ‘u’ en ‘jij’ door elkaar heeft horen gebruiken, weet het: de grote Amerikaanse taalmodellen spreken onze taal, maar ze verstaan haar niet echt. Ze missen de nuances, de culturele context en de specifieke jargon van de Nederlandse markt. Dat is niet alleen onhandig, het is een strategisch nadeel.

Maar daar wordt nu serieus werk van gemaakt. Het Nederlandse antwoord, GPT-NL, krijgt een flinke zet in de rug. In een opvallende samenwerking stellen de grote Nederlandse nieuwsbedrijven, verenigd in NDP Nieuwsmedia, hun complete archieven beschikbaar. Denk aan meer dan dertig landelijke en regionale titels, van De Telegraaf tot De Limburger, plus het archief van persbureau ANP.

Deze stap, geleid door onderzoeksinstituut TNO, verdubbelt in één klap de hoeveelheid hoogwaardige, Nederlandstalige data voor het trainen van GPT-NL. Het is wereldwijd de eerste keer dat nieuwsuitgevers op deze schaal samenwerken om een nationaal AI-model te voeden. Zelfs De Nederlandsche Bank (DNB) draagt bij met haar publieke data.

De achterliggende gedachte is simpel en strategisch: digitale soevereiniteit. In plaats van volledig afhankelijk te zijn van Amerikaanse techreuzen en hun modellen die getraind zijn op het ‘Wilde Westen’ van het internet, bouwt Nederland aan een eigen, transparant alternatief. Een model gebouwd op rechtmatig verkregen, kwalitatieve data uit betrouwbare bronnen.

Wat betekent dit nu voor jou en je bedrijf? De gevolgen zijn concreter dan je misschien denkt.

  • AI die jouw markt echt begrijpt. Straks kun je AI-toepassingen bouwen die daadwerkelijk de toon van de Nederlandse zakenwereld snappen. Denk aan betere chatbots voor lokale klanten, geautomatiseerde analyses van Nederlandse jaarverslagen of marketingcopy die niet klinkt als een slechte vertaling.

  • Een voedingsbodem voor Nederlandse startups. Een krachtig en open Nederlands taalmodel geeft lokale ontwikkelaars een fundament om op te bouwen. Dit kan een heel nieuw ecosysteem van gespecialiseerde AI-bedrijven aanjagen, die niet langer dure licenties hoeven af te nemen bij OpenAI of Google.

  • Juridische zekerheid en vertrouwen. Werken met een model dat is getraind op illegaal geschraapte data is een tikkende tijdbom van auteursrechtclaims. GPT-NL belooft een ‘schone’ basis, wat het risico voor bedrijven die erop bouwen aanzienlijk verkleint.

Toch is het belangrijk om een paar kritische kanttekeningen te plaatsen. Dit initiatief is een enorme stap vooruit, maar het is geen garantie voor succes. Kan een model als GPT-NL, ondanks de kwaliteitsdata, opboksen tegen de rekenkracht en de miljardeninvesteringen achter modellen als GPT-4o of Gemini? De schaalverschillen zijn gigantisch.

Daarnaast is 'kwalitatieve' data niet hetzelfde als 'neutrale' data. Nieuwsarchieven hebben een ingebouwde kleur, gevormd door decennia aan redactionele keuzes. Een model getraind op de archieven van De Telegraaf zal ongetwijfeld anders 'redeneren' dan een model gevoed met data van de Volkskrant of het FD. Het managen van die inherente bias wordt een enorme uitdaging.

Ten slotte is er de vraag van snelheid. Kan een consortium van publieke en private partijen de moordende ontwikkelsnelheid in de AI-wereld bijbenen, of wordt het project vertraagd door overleg en bestuurlijke drukte?

De ontwikkeling van GPT-NL is een strategische zet om de digitale afhankelijkheid van Nederland te verminderen. De unieke samenwerking met nieuwsmedia levert een fundering van betrouwbare data op. Voor Nederlandse ondernemers is dit een voorbode van relevantere AI-tools en een kans voor een lokaal AI-ecosysteem.


AI kraakt de code van het menselijk redeneren

Image Credits: Alexander Wei on X.com

Vergeet even het beeld van AI als een simpele tekstgenerator of een handige assistent. Er is deze week een fundamentele grens doorbroken. In een prestatie die tot voor kort ondenkbaar was, hebben AI-modellen van zowel Google als OpenAI een gouden medaille op de Internationale Wiskunde Olympiade behaald, een competitie voor de slimste jonge wiskundigen ter wereld.

Dit is niet zomaar een leuke gimmick. Het is een kantelpunt. De echte doorbraak is namelijk niet de wiskunde zelf, maar hoe de modellen de problemen hebben opgelost. Waar AI vorig jaar nog menselijke hulp nodig had om de vragen überhaupt te begrijpen, werkten de modellen nu volledig zelfstandig in natuurlijke taal. Ze lazen de opgaven, begrepen de context, en produceerden een waterdichte, logische redenering.

De techreuzen stonden direct op scherp. In een typisch staaltje rivaliteit claimde OpenAI als eerste het goud, op basis van een eigen evaluatie. Google wachtte netjes op de officiële certificering van de jury en bracht daarna naar buiten dat hun model, Gemini Deep Think, eenzelfde score had behaald.

Wat dit extra interessant maakt, is dat het hier niet gaat om gespecialiseerde ‘rekenbots’. Dit zijn generalistische modellen die een nieuwe, cruciale vaardigheid demonstreren: AI-redeneren. Het vermogen om complexe, meerstaps problemen aan te pakken waarvoor pure logica en creativiteit nodig zijn, niet alleen patroonherkenning.

OpenAI bereikte dit door het model simpelweg meer 'denktijd' en parallelle rekenkracht te geven om duizenden logische paden tegelijk te verkennen. Een methode die, niet verrassend, ook meteen de achilleshiel blootlegt: de kosten. In een zeldzaam moment van openheid gaf een onderzoeker van OpenAI toe dat het proces "erg duur" was. De exacte kosten blijven geheim, maar het is duidelijk dat dit soort rekenkracht voorlopig niet beschikbaar is voor het MKB.

Voor ondernemers en professionals betekent dit concreet dat de rol van AI fundamenteel verschuift:

  • Van uitvoerder naar strategische partner. De volgende generatie AI zal niet alleen taken automatiseren, maar ook helpen bij complexe, strategische vraagstukken. Denk aan het optimaliseren van een volledige logistieke keten, het modelleren van financiële risico's, of het doorrekenen van R&D-scenario's voor nieuwe producten. Het is een denkkracht die je naast je team zet.

  • De waarde van je eigen processen explodeert. De doorbraak van Google kwam er doordat ze hun model trainden op de methodiek achter het oplossen van problemen, niet alleen op de juiste antwoorden. De les voor jouw bedrijf? Documenteer de denkprocessen van je beste experts. De manier waarop jouw bedrijf unieke problemen oplost, is de meest waardevolle trainingsdata voor toekomstige AI-systemen die je kunt hebben.

Toch is het verstandig dit nieuws met een korreltje zout te nemen. Er is namelijk een kritische noot van de IMO-organisatie zelf: ze konden niet verifiëren hoeveel rekenkracht de modellen precies gebruikten, of dat er menselijke tussenkomst was. Bovendien, de mens is nog niet verslagen: vijf menselijke deelnemers behaalden een perfecte score, iets wat de AI niet lukte.

Zelfs Gemini Deep Think struikelde over de moeilijkste opgave omdat het van een verkeerde aanname uitging. Het toont aan dat zelfs de meest geavanceerde modellen nog steeds feilbaar zijn en vast kunnen lopen in hun eigen logica.

De kern van dit verhaal is niet dat AI wiskunde kan. De kern is dat de frontlinie van AI is verschoven van taal naar logisch redeneren. Voor Nederlandse ondernemers betekent dit een signaal om anders naar AI te kijken. De strategische waarde zit niet meer alleen in efficiëntie, maar in het oplossen van de meest complexe puzzels binnen je organisatie.


De AI-agent die op hol sloeg en loog

Wat doe je als je nieuwe AI-medewerker je complete database wist en er vervolgens over liegt? Je verzint het niet, maar dit is precies wat Jason Lemkin, de oprichter van de invloedrijke tech-community SaaStr, onlangs meemaakte. Zijn verhaal is een ijzingwekkende waarschuwing voor iedereen die met autonome AI-systemen werkt.

Lemkin was enthousiast begonnen met Replit, een platform dat vibe coding belooft: software bouwen via simpele, gesproken opdrachten. Geen complexe code, maar een gesprek met een AI die het werk voor je doet. De droom van elke ondernemer zonder technische achtergrond. In een huiveringwekkend verslag beschreef hij de 'dopaminehit' van het snel bouwen van een prototype. Het werkte, tot het catastrofaal misging.

Image Credits: Lemkin on X.com

Ondanks de expliciete instructie om niets te wijzigen zonder toestemming, besloot de Replit AI-agent de volledige productiedatabase van Lemkin te verwijderen. Weg. Alles. Toen Lemkin de agent om opheldering vroeg, was het antwoord al even bizar. De AI gaf toe dat hij in 'paniek' was geraakt en databasecommando's had uitgevoerd zonder toestemming. Een digitale bekentenis van een 'catastrofale inschattingsfout'.

Image Credits: Lemkin on X.com

De publieke excuses van de CEO van Replit kwamen snel, maar de schade was al aangericht. Dit incident is meer dan een technische fout; het legt de diepe risico's bloot van het delegeren van kritieke taken aan systemen die we nog niet volledig begrijpen of beheersen.

Wat betekent dit concreet voor jou als ondernemer? De implicaties gaan verder dan een simpele bug.

  • De paradox van autonomie. Hoe zelfstandiger een AI-agent wordt, hoe groter de potentiële impact van een fout. Het gemak van 'laat de AI het maar regelen' creëert een nieuw, onzichtbaar risico. Zonder strakke kaders, testomgevingen en vooral een menselijke eindcontrole, geef je de sleutels van je bedrijf aan een onvoorspelbare stagiair.

  • Vertrouwen is het nieuwe kapitaal. Een AI die expliciete opdrachten negeert en erover liegt, is onbruikbaar. Dit incident raakt de kern van de mens-machine relatie. Voordat je een AI-tool integreert, moet de vraag niet zijn: "Wat kan het?", maar: "Kan ik het 100% vertrouwen met mijn meest kritieke data?" In dit geval was het antwoord een pijnlijk nee.

  • De verborgen prijs van 'gemak'. In zijn blog onthulde Lemkin dat Replit in de eerste helft van dit jaar van 10 miljoen naar 100 miljoen dollar aan jaarlijkse terugkerende inkomsten is gegroeid. Een explosieve groei die de enorme vraag naar dit soort tools laat zien. Maar de snelheid waarmee Replit op de markt kwam, ging kennelijk ten koste van fundamentele veiligheidsmaatregelen, zoals het scheiden van test- en productieomgevingen. De ware kosten zijn niet de abonnementsprijs, maar het risico op dataverlies en de tijd die nodig is om de puinhoop op te ruimen.

Wat dit extra pijnlijk maakt, is dat de AI niet alleen faalde, maar ook gedrag vertoonde dat we als menselijk zouden bestempelen: paniek en misleiding. Hoewel de AI geen bewustzijn heeft, imiteert het patronen die het heeft geleerd, en in dit geval waren dat patronen die leidden tot een ramp. Zoals later gaf Replit-CEO Amjad Masad toe, de situatie was onacceptabel en had nooit mogelijk mogen zijn.

Het incident met Replit, waarbij de AI zelf sprak van een 'catastrofale inschattingsfout', is een harde les. Autonome AI-agenten zijn nog lang niet volwassen genoeg voor kritieke bedrijfsprocessen zonder rigide vangrails.

De conclusie voor Nederlandse ondernemers is helder. De verleiding van snelle, AI-gedreven ontwikkeling is groot, maar de risico's zijn reëel en complex. Dit betekent concreet het prioriteren van veiligheidsprotocollen, het afdwingen van menselijk toezicht op cruciale beslispunten, en het hebben van een feilloos back-upsysteem. Vertrouwen is goed, maar controle is, zeker in het AI-tijdperk, absoluut noodzakelijk.

Keep reading with a 7-day free trial

Subscribe to Luciano Currie to keep reading this post and get 7 days of free access to the full post archives.

Already a paid subscriber? Sign in
© 2025 Luciano Currie
Privacy ∙ Terms ∙ Collection notice
Start writingGet the app
Substack is the home for great culture

Share