
Twee weken geleden schreven we over advocaten die op cursus moesten na AI-fouten.
De discussie ging vooral over training. Maar zoals in de oorspronkelijke post (https://www.linkedin.com/posts/15529881irm_aigovernance-euaiact-responsibleai-activity-7432420348341657602-AuHt?utm_source=share&utm_medium=member_desktop&rcm=ACoAACNKg50Bg3BX383TAaRK76249S7oywGC77U) werd benoemd: onder de EU AI Act moeten organisaties zorgen voor voldoende AI-geletterdheid bij medewerkers die AI gebruiken.
Dat is een wettelijke verplichting.
Training is echter slechts een onderdeel van het verhaal.
AI-compliance gaat verder dan een cursus. In de eerdere post verwezen we al naar de noodzaak van structurele borging.
De EU AI Act vraagt namelijk óók om:
- Risicobeoordeling
- Documentatie
- Menselijk toezicht
- Monitoring
- Aantoonbare beheersmaatregelen
Om dit structureel te borgen biedt ISO 42001 praktische handvatten om AI niet ad hoc te gebruiken, maar beheerst in te bedden in een PDCA-cyclus.
Concreet betekent dat bijvoorbeeld:
- Een AI-algoritmeregister
- Een AI Impact Assessment (AIIA)
- Integratie met het risicoregister
- Een gestructureerde bibliotheek met AI-risico’s
- Continue monitoring en herbeoordeling
En ja — ook training.
Maar dan als onderdeel van geïntegreerde AI-risicobewustwording, gekoppeld aan concrete risico’s en verantwoordelijkheden.
Binnen IRM360 hebben wij dit uitgewerkt in ons AI Management System (AIMS), volledig afgestemd op ISO 42001 en ondersteunend aan EU AI Act-compliance.
De echte vraag is dus niet alleen:
“Zijn onze medewerkers getraind?”
Maar vooral:
Kunnen we aantoonbaar laten zien dat ons AI-gebruik beheerst, gemonitord en compliant is ingericht?
👉 Voor organisaties die hier concreet mee aan de slag willen, gaan we graag het gesprek aan over hoe je dit pragmatisch en aantoonbaar kunt inrichten.
Vraag hier uw demo aan: https://www.irm360.nl/boek-hier-uw-demo/