AI bij risicobeoordeling van machines is in korte tijd overal opgedoken waar vroeger Excel, checklists en gekopieerde projectdocumenten de dienst uitmaakten. Dat is begrijpelijk. Je vult een machinetype in, voegt wat algemene informatie toe en binnen seconden staat er een keurige tabel met gevaar, gevolgen, beschermingsmaatregelen en restrisico. Alleen: een nette tabel is nog geen risicobeoordeling van machines volgens ISO 12100. De waarde zit niet in het aantal regels, kleurcodes of technisch klinkende zinnen. De waarde zit in de vraag of je het denkspoor achter ontwerpkeuzes kunt terughalen. Precies daar gaat het vaak mis.
Risicobeoordeling van machines is geen administratieve invuloefening. Het is een ontwerp- en beslisproces. Je moet kunnen uitleggen wie wordt blootgesteld, tijdens welke taak, in welke levensfasen van de machine, onder welke omstandigheden, door welk gevaar, in welke gevaarlijke situatie en via welke gevaarlijke gebeurtenis. Als die keten ontbreekt, blijft er vooral documentatie over. En documentatie kan er indrukwekkend uitzien zonder dat ze technisch standhoudt.
AI bij risicobeoordeling van machines: nieuwe techniek, oud probleem
Het probleem begon niet met AI. Jarenlang zagen veel beoordelingen er ongeveer hetzelfde uit: Excel, een lijst met gevaren, een paar standaardgevolgen, een vaste afscherming, een werkinstructie, een opleiding voor de operator en klaar. De kolommen waren gevuld. Het restrisico daalde braaf in de laatste kolom. Iedereen kon door.
Maar de cruciale vraag bleef vaak onbeantwoord: heeft iemand echt gekeken naar wat de operator doet bij omstellen, reinigen, afstellen, storing verhelpen, handbedrijf, onderhoud of service-toegang? Is vastgesteld hoe vaak die taak voorkomt? Of de machine stilstaat? Of er restenergie aanwezig is? Of de afscherming in de praktijk wordt omzeild omdat de productie anders vastloopt?
Dat is de kern. Het probleem was nooit Excel zelf. Excel was alleen een gereedschap. Het echte probleem was dat je er heel makkelijk een nep-proces van kon maken. AI doet precies hetzelfde trucje, maar sneller, mooier en overtuigender. Waar een zwakke spreadsheet zichzelf nog verraadde, kan door AI gegenereerde tekst klinken alsof een zeer ervaren specialist hem heeft geschreven. En juist daardoor wordt het risico groter.
Een model kan zonder moeite een keurige lijst genereren voor een transportband, pers, robotcel of verpakkingslijn. Mechanisch gevaar, elektrisch gevaar, thermisch gevaar, ergonomie, geluid, pneumatiek, noem maar op. Op het eerste gezicht lijkt dat sterk. Alleen: de indruk van analyse is nog geen analyse. ISO 12100 beschrijft geen wedstrijd in nette formuleringen. ISO 12100 beschrijft een methodiek om veiligheid te bereiken via risicobeoordeling van machines en risicoreductie.
ISO 12100 begint niet met een lijst gevaren
Een veelgemaakte fout is dat teams starten met de vraag welk gevaar de machine heeft. Dat klinkt logisch, maar het is te oppervlakkig. Een scherpe rand is een gevaar. Een aandrijving is een gevaar. Een heet onderdeel is een gevaar. Toch zegt dat nog weinig over het werkelijke risico. Risico ontstaat pas wanneer een persoon tijdens een reële taak blootgesteld kan raken.
De betere vraag is dus niet: welke gevaren zijn aanwezig? De betere vraag is: welke persoon kan tijdens welke taak, in welke levensfasen van de machine, onder welke omstandigheden in een gevaarlijke situatie terechtkomen? Dan kijk je niet meer naar een statisch object, maar naar de werkelijke interactie tussen mens en machine.
Dat maakt ook duidelijk waarom een simpele lineaire tabel vaak tekortschiet. Soms is de taak het vertrekpunt: reinigen, afstellen, omstellen, storing verhelpen, onderhoud. Soms is juist de gevaarlijke gebeurtenis het vertrekpunt: onverwacht starten, verlies van stabiliteit, fout in de besturing, drukverlies, vallende last, breuk van een leiding, vrijkomen van energie. In de praktijk lopen die twee denkrichtingen door elkaar. Een goede risicobeoordeling van machines moet beide aankunnen.
Daarom is het niet genoeg om in één rij te noteren dat er kans is op beknelling. Je moet weten waardoor, wanneer, voor wie, bij welke taak, na welke reeks gebeurtenissen en waarom de gekozen beschermingsmaatregelen passend zijn. Als iemand later vraagt waarom de blootstelling als incidenteel is beoordeeld, waarom de ernst zo is ingeschat of waarom alleen een instructie is toegepast, moet daar een technisch verdedigbaar antwoord op komen. Geen schouderophalen. Geen beroep op een mooie tabel.
AI bij risicobeoordeling van machines werkt alleen met context
Vraag je aan AI om een risicobeoordeling van machines voor een verpakkingsmachine te maken, dan krijg je meestal iets dat op het eerste gezicht best degelijk oogt. Er staan zinnige categorieën in, gangbare gevaren, gebruikelijke beschermingsmaatregelen en vaak zelfs een nette opbouw. Alleen: dat document gaat dan niet over jouw machine. Het gaat over een statistisch waarschijnlijk beeld van een typische verpakkingsmachine.
En tussen die twee zit een kloof.
AI weet niet dat de operator zijn hand dieper in de machine moet steken dan de ontwerper had voorzien. AI weet niet dat het bedienpaneel aan de verkeerde zijde staat en iemand de machinebeweging daarom vanuit een onvoorziene positie observeert. AI weet niet dat een zware afscherming na twee weken structureel open blijft staan. AI weet niet dat in de instructie twee personen staan, terwijl in de praktijk één persoon het werk doet. AI weet niet dat omstellen zogenaamd sporadisch is, maar in werkelijkheid zes keer per dienst gebeurt. AI weet niet dat een storing die in het ontwerp als uitzonderlijk gold, voor onderhoud iedere maandag terugkomt.
Precies daarom is AI zonder context gevaarlijk overtuigend. Niet omdat elk antwoord fout is. Vaak zijn de algemene punten juist redelijk. Het probleem is dat risicobeoordeling van machines niet op algemeen niveau wordt beslist. De echte beslissing valt in het detail: bij die ene toegang, die ene taak, die ene werkmodus, die ene gevaarlijke situatie die nét anders is dan de documentatie doet vermoeden.
Goed gebruik van AI begint daarom niet met de opdracht om een tabel te genereren. Het begint met het verzamelen van machinegrenzen, beoogd gebruik, redelijkerwijs voorzienbaar verkeerd gebruik, werkmodi, energiebronnen, toegangen, onderhoudstaken, reinigingshandelingen, storingen, omstellingen en de reële interacties tussen mens en machine. Pas daarna kan AI helpen om ontbrekende scenario's te signaleren, vragen aan te scherpen of documentatie consistenter te maken.
AI mag dus best vragen stellen als: is reinigen meegenomen, heeft de operator toegang tijdens storing verhelpen, treedt deze taak alleen bij onderhoud op of ook in normale productie, wordt het risico gereduceerd via inherent veilig ontwerp of alleen via informatie voor gebruik? Dat is nuttig. Maar als AI die vragen ook zelf beantwoordt zonder machinegegevens, dan analyseert het niet. Dan gokt het. En gokken is in machineveiligheid een dure gewoonte.
Een goede prompt is nog geen methodiek
Hier ligt een tweede valkuil. Veel mensen denken dat het probleem verdwijnt zodra de prompt beter wordt. Neem ISO 12100 op, dek alle levensfasen van de machine af, voeg gevaar, gevolg, beschermingsmaatregelen en restrisico toe, en het zal wel goed komen. Het resultaat wordt dan inderdaad vaak netter. Maar een nette prompt is nog steeds geen methodiek.
Als de invoer algemeen of leeg is, dan wordt de uitvoer een elegante uitwerking van aannames. AI kan feiten die het niet kent niet alsnog ontdekken. Het kan ze invullen, middelen of afleiden uit vergelijkbare machines. Juist daar zit het gevaar. In risicobeoordeling van machines zijn het vaak de afwijkende details die tellen: de zichtlijn vanaf de bedienpost, een bewegend deel dat nog doorloopt na stop, handmatig lostrekken van product, toegang via een bordes dat niemand als werkplek heeft behandeld, of reinigen dat alleen mogelijk is na verwijderen van een afscherming.
Een prompt kan een gesprek op gang brengen. Hij kan de machine niet inspecteren. Hij kan de operator niet observeren. Hij kan de ontwerper niet dwingen om een lastige ontwerpkeuze te maken. En hij kan de verantwoordelijkheid van de fabrikant niet overnemen.
AI bij risicobeoordeling van machines als assistent, niet als ondertekenaar
Dat betekent niet dat AI geen plaats heeft in dit vakgebied. Integendeel. AI kan een sterke assistent van de engineer zijn. Het kan inconsistenties vinden, scenario's vergelijken, ontbrekende taken signaleren, redeneringen scherper formuleren en documentatie opruimen. Dat is waardevol, zeker in complexe projecten met veel varianten en veel informatie.
Maar AI is niet de auteur van verantwoordelijkheid. Die blijft liggen bij fabrikant, ontwerper, integrator, het engineeringteam, degene die de documentatie ondertekent en de partij die de machine in de handel brengt of in gebruik stelt. Zij moeten kunnen aantonen dat de risicobeoordeling van machines het resultaat is van een werkelijk proces, niet van tekstproductie.
Als AI voorstelt om een vergrendelde afscherming toe te passen, moet iemand nog steeds uitleggen waarom juist die oplossing passend is, voor welke toegang, bij welke stoptijd, voor welke veiligheidsfunctie en met welke vereiste betrouwbaarheid. Als AI training voorstelt, moet iemand eerlijk beoordelen of training hier wel een geldige risicoreductie is of vooral een manier om verantwoordelijkheid richting operator te schuiven. Als AI LOTO noemt, moet iemand nagaan of het gaat om maandelijkse onderhoudswerkzaamheden of om een handeling die meerdere keren per uur voorkomt. In het laatste geval is een papieren LOTO-verwijzing vaak geen echte oplossing maar een wens in een cel.
De volgorde uit ISO 12100 blijft dus overeind. Eerst kijken naar elimineren van het gevaar of risicoreductie via inherent veilig ontwerp. Daarna naar technische beschermingsmaatregelen. Pas daarna naar informatie voor gebruik, waarschuwingen, instructies, opleiding en persoonlijke beschermingsmiddelen. In veel zwakke dossiers wordt die volgorde omgedraaid, omdat dat administratief sneller voelt. Technisch is het vaak precies verkeerd.
Beslisspoor is belangrijker dan een mooie tabel
Elke serieuze risicobeoordeling van machines moet later te reconstrueren zijn. Niet alleen te lezen, maar echt te reconstrueren. Waarom is deze gevaarlijke situatie relevant geacht? Waarom is de blootstelling zo ingeschat? Waarom is juist deze maatregel gekozen? Waarom is een alternatief niet toegepast? Waarom is het restrisico aanvaardbaar geacht?
Zonder dat beslisspoor blijft alleen de uitkomst zichtbaar, niet het denken erachter. En juist dat denken heb je nodig bij audit, wijziging, incidentonderzoek, klantdiscussie of een vraag na een ongeval. Dan is AI heeft dit gegenereerd geen argument. Net zomin als dit stond zo in Excel vroeger een argument was.
AI kan hier twee kanten op werken. Als het proces goed staat, kan AI helpen om onderbouwingen consistenter op te schrijven, gaten in argumentatie te signaleren en verbanden tussen taak, gevaarlijke situatie, gevaarlijke gebeurtenis en beschermingsmaatregelen zichtbaar te maken. Maar als het proces ontbreekt, maakt AI de mist alleen mooier. Meer tekst. Betere stijl. Meer technische woorden. Nog steeds geen helder antwoord op de vraag waarom.
Voorbeeld uit de praktijk: vorksensor op een slitter
Neem een eenvoudig maar veelzeggend voorbeeld. Op een slitter detecteert een vorksensor de positie van de baan. Bij wisselen van de materiaalbreedte moet de operator de vorksensor verstellen. Alleen zit die afstelling in de gevarenzone. Om de sensor te verschuiven, moet iemand dus de zone in waar bewegende delen, rollen, intrekpunten, gespannen materiaal of snijcomponenten aanwezig zijn.
Een generiek AI-antwoord zal vaak iets voorstellen in deze lijn: LOTO toepassen, operator instrueren, gevarenzone markeren, persoonlijke beschermingsmiddelen gebruiken, afscherming toepassen, noodstop voorzien. Het klinkt niet dom. Maar het mist vaak de echte vraag: waarom moet de operator überhaupt de gevarenzone in voor een normale omstelhandeling?
Dat verschil is fundamenteel. Als het wisselen van materiaalbreedte een normale, terugkerende productietaak is, dan mag je die handeling niet behandelen alsof het een zeldzame service-interventie is. Dan moet je eerst onderzoeken of de afstelling via inherent veilig ontwerp buiten de gevarenzone kan worden gebracht. Kan de vorksensor vanaf de buitenzijde worden verschoven? Kan een geleiding met schaal worden toegepast? Kan positionering via receptuur of een andere detectie-oplossing de handmatige ingreep wegnemen? Kan de constructie van steun, toegang of volgorde van omstellen worden aangepast?
Pas als die ontwerpopties aantoonbaar niet haalbaar zijn, kom je bij aanvullende beschermingsmaatregelen zoals een vergrendelde afscherming, instelmodus, beperkte snelheid, dodemansbediening, toestemmingsschakelaar, veilige stop, LOTO, instructie en opleiding. De volgorde is niet bureaucratisch. De volgorde dwingt je om eerst het probleem aan te pakken en pas daarna de omgang met het resterende probleem te regelen.
Bij dit soort voorbeelden zie je meteen het verschil tussen AI als documentgenerator en AI als procesassistent. De generator schrijft een keurige rij. De procesassistent stelt de lastige vraag die ertoe doet: hoort deze taak door ontwerp buiten de gevarenzone te worden opgelost? Vaak is precies die vraag meer waard dan twintig perfect geformuleerde regels tekst.
AI in een veiligheidsfunctie is een heel andere categorie
Nog een belangrijk onderscheid: AI als hulpmiddel bij documentatie is iets anders dan AI of machine learning in de machine zelf, zeker wanneer dat systeem een veiligheidsfunctie moet vervullen. Daar eindigt de comfortabele wereld van handige hulpmiddelen en begint een veel strengere technische en regelgevende werkelijkheid.
Verordening (EU) 2023/1230 legt de verplichting voor risicobeoordeling van machines bij de fabrikant. De fabrikant moet de toepasselijke essentiële gezondheids- en veiligheidseisen bepalen en de machine zo ontwerpen en bouwen dat gevaren worden geëlimineerd of risico's zo veel mogelijk worden beperkt. Dat blijft mensenwerk, met technische verantwoording.
Wanneer een systeem met volledig of gedeeltelijk zelfveranderend gedrag een veiligheidsfunctie verzorgt, wordt het speelveld zwaarder. Dan heb je niet meer alleen een slim stukje software, maar mogelijk een veiligheidsonderdeel of een ingebouwd systeem waarvoor een strengere conformiteitsbeoordeling geldt. In zulke gevallen kan betrokkenheid van een aangemelde instantie aan de orde zijn. Dat is geen formaliteit en ook geen innovatie-angst. Het is de erkenning dat een fout in een veiligheidsfunctie direct tot schade kan leiden.
De AI Act versterkt die lijn. AI die als veiligheidsonderdeel van een product wordt gebruikt, kan een systeem met hoog risico zijn. Dan gelden eisen aan risicobeheer over de hele levenscyclus, menselijk toezicht, nauwkeurigheid, robuustheid en cyberbeveiliging. Terecht ook. In machineveiligheid draait het niet om de fraaie gemiddelde score van een model. Het draait om wat er gebeurt in de procenten waarin het systeem níet doet wat je verwacht. Wat gebeurt er als vervuiling, licht, temperatuur, trillingen, afwijkend materiaal, sensorfouten of menselijk gedrag buiten de testset vallen? Wat gebeurt er bij verlies van data, verkeerde invoer of een onverwachte toestand van de machine?
Dat zijn geen filosofische vragen. Dat zijn pure engineeringvragen. Een systeem dat meestal goed werkt is voor een veiligheidsfunctie niet automatisch geschikt. Je moet aantonen hoe het zich gedraagt in normale toestand, fouttoestand en grenssituaties, hoe menselijk toezicht is ingericht en hoe de machine naar een veilige toestand gaat als het systeem faalt of onbetrouwbaar wordt.
Praktische regels voor verantwoord gebruik
- Begin niet met een tabel. Begin met machinegrenzen, taken, werkmodi, energiebronnen en levensfasen van de machine.
- Voer reële context in: reinigen, storing verhelpen, omstellen, onderhoud, service-toegang, handbedrijf en redelijkerwijs voorzienbaar verkeerd gebruik.
- Gebruik AI om vragen te genereren, niet om ontbrekende feiten te verzinnen.
- Toets elke voorgestelde maatregel aan de hiërarchie van ISO 12100: eerst inherent veilig ontwerp, daarna beschermingsmaatregelen, pas daarna informatie voor gebruik.
- Controleer output op de werkvloer met ontwerp, productie en onderhoud. Een beoordeling achter het scherm zonder machinezicht is zelden sterk.
- Leg het beslisspoor vast: waarom is een keuze gemaakt, welke alternatieven zijn bekeken en waarom blijft bepaald restrisico over.
- Laat AI nooit zelfstandig bepalen dat restrisico aanvaardbaar is. Dat oordeel vraagt technische en organisatorische verantwoordelijkheid.
- Houd AI voor documentondersteuning strikt gescheiden van AI in een veiligheidsfunctie. Dat zijn twee verschillende risicoklassen.
De praktische waarheid is simpel. AI kan uitstekend helpen bij risicobeoordeling van machines, maar alleen als het werkt binnen een stevig proces. Is dat proces zwak, dan krijg je geen betere veiligheid. Dan krijg je vooral mooiere schijnzekerheid.
En schijnzekerheid is in machineveiligheid geen detail. Het is vaak de voorfase van het volgende incident.