AI i riskbedömning av maskiner
TL;DR
  • AI kan snabbt skapa trovärdiga risktabeller, men en snygg tabell är inte en riskbedömning enligt ISO 12100.
  • En riktig bedömning måste koppla risker till uppgift, livsfas, exponering, farlig situation och möjlig farlig händelse.
  • Största risken är att förväxla dokument med process: AI gör kopierade och antagna bedömningar snabbare och mer övertygande.
  • AI fungerar bäst som stöd för maskinspecifik analys, till exempel för frågor, struktur och jämförelser, inte som ersättning för ingenjören.
  • Förordning 2023/1230 kräver verklig riskbedömning och val av riskreducerande åtgärder, inte bara professionellt utseende dokumentation.

AI i riskbedömning av maskiner låter som nästa logiska steg. Där Excel, checklistor och kopierade rader tidigare dominerade kan en modell nu spotta ut en hel tabell på sekunder: fara, möjlig skada, skyddsåtgärd, risknivå, restrisk. Det ser vuxet ut. Det ser tekniskt ut. Men en snygg tabell är inte en riskbedömning.

ISO 12100 handlar inte om att fylla celler med välformulerade meningar. Det handlar om att kunna följa varför en viss konstruktion valdes, varför en viss säkerhetsfunktion behövs och varför en viss riskreducering faktiskt är rimlig för just den maskinen. Om du inte kan återskapa hur ni tänkte, då har du inte ett robust underlag. Då har du dokumentation som ser ut som ingenjörsarbete.

Det är en avgörande skillnad. Och det är precis här AI både kan hjälpa och ställa till det ordentligt.

AI i riskbedömning av maskiner förstärker ett gammalt fel

Det här problemet började inte med AI. Det började långt tidigare, när många riskbedömningar av maskiner i praktiken blev ett ritualiserat Excel-arbete. Någon skrev in en generell fara, lade till en generell konsekvens, fyllde på med en oskyldig kombination av skyddsåtgärder och sänkte sedan risken i sista kolumnen. Dokumentet fanns. Färgerna satt där de skulle. Alla kände igen formatet.

Men väldigt ofta saknades det viktigaste: kopplingen mellan människans faktiska uppgift, maskinens livsfaser, den farliga situationen, den farliga händelsen och den valda riskreduceringen. Skedde analysen under normal drift? Vid omställning? Vid rengöring? Vid felsökning? Vid underhåll? Vid materialstopp? Vid manuell körning? Det var långt ifrån alltid klart.

Excel var aldrig grundproblemet. Excel var bara verktyget. Det verkliga problemet var att verktyget gjorde det lätt att imitera en process utan att faktiskt genomföra den. Nu kommer AI in i samma lucka, men snabbare, snyggare och mer övertygande. Det är därför risken ökar. Ett svagt kalkylblad avslöjade ofta sig självt. En AI-genererad text kan låta som om den kom från en erfaren specialist, trots att den bygger på antaganden.

Och det är just det som är farligt: intrycket av analys är fortfarande inte analys.

ISO 12100 börjar inte med en lista över faror

Ett av de vanligaste tankefelen är att börja med frågan: vilka faror har maskinen? Det låter rimligt. En maskin har rörliga delar, alltså mekaniska faror. Den har elförsörjning, alltså elektriska faror. Den har heta ytor, alltså termiska faror. Den har pneumatik, alltså lagrad energi. Tabellen fylls snabbt.

Men en katalog över faror är fortfarande inte en färdig riskbedömning av maskiner. ISO 12100 behandlar inte maskinen som en statisk hög med farliga komponenter. Standarden kräver att du ser maskinen i relation till människan som ska transportera, installera, starta, använda, ställa om, rengöra, underhålla, reparera, felsöka och avveckla den.

En fara i sig beskriver ännu inte risken. Risken uppstår när någon faktiskt kan exponeras. Därför börjar en seriös analys inte med etiketten mekanisk fara. Den börjar med frågor som dessa:

  • Vem exponeras?
  • Under vilken uppgift?
  • I vilken av maskinens livsfaser?
  • Under vilka villkor?
  • Hur uppstår en farlig situation?
  • Vad kan utlösa en farlig händelse?
  • Vilken skada kan följa?

Det kan vara en uppgift som driver analysen: rengöring, omställning, justering, materialstopp, provkörning, serviceåtkomst. Men det kan också vara en händelse som driver analysen: oväntad start, förlorad stabilitet, fel i styrlogik, släppt last, energibortfall, brusten slang, brand, vibrationer eller yttre påverkan. En bra riskbedömning måste kunna hantera båda riktningarna. Maskinvärlden är inte alltid linjär bara för att tabellen råkar vara det.

Det är också här riskuppskattning och riskvärdering blir meningsfulla. Inte som två administrativa ord i en mall, utan som steg som bygger på en begriplig verklighetsbeskrivning.

AI i riskbedömning av maskiner fungerar bara med rätt process

Om någon skriver ett allmänt prompt med ungefär innehållet: gör en riskbedömning för en förpackningsmaskin, då får personen sannolikt ett svar som ser helt okej ut. Där finns kanske mekaniska faror, elektriska faror, ergonomi, buller, brännskador, pneumatik och några typiska skyddsåtgärder. Problemet är bara att svaret inte handlar om den specifika maskinen. Det handlar om en statistiskt sannolik förpackningsmaskin.

Och mellan en typisk maskin och en verklig maskin finns en avgrund.

Den verkliga maskinen har ett visst åtkomstmönster, vissa driftlägen, vissa rörelsesekvenser, vissa begränsningar i utrymme, vissa återkommande fel, vissa kompromisser från produktionen och vissa genvägar som vuxit fram för att konstruktionen inte riktigt mötte verkligheten. AI vet inte att panelen sitter på fel sida. AI vet inte att skyddet är så tungt att det lämnas öppet efter två veckor. AI vet inte att instruktionen säger två personer men att jobbet i praktiken görs av en. AI vet inte att omställning som beskrevs som sporadisk i själva verket sker flera gånger per skift.

Utan den kontexten gissar modellen. Och gissning i maskinsäkerhet är elegant ända fram till första olyckan.

Det bra användningsfallet börjar därför inte med: generera tabell. Det börjar med att samla verkliga data om maskinen: begränsningar, användning, rimligen förutsebar felanvändning, maskinens livsfaser, åtkomster, energikällor, miljö, driftlägen, rörelser, rengöring, service, materialstopp och avvikelser i verklig drift. Först därefter kan AI användas för att stötta processen.

AI kan till exempel vara bra på att ställa kontrollfrågor:

  • Har rengöring faktiskt analyserats, eller bara normal drift?
  • Kan operatören nå den farliga zonen vid materialstopp?
  • Är detta en serviceuppgift, eller en återkommande operatörsuppgift?
  • Har ni valt riskreducering genom säker konstruktion först, eller hoppade ni direkt till instruktion och utbildning?
  • Finns det ett tydligt beslutsspår för varför restrisken bedömdes som acceptabel?

Det är värdefullt. Men bara om svaren kommer från människor som faktiskt känner maskinen.

Prompt är inte metodik enligt ISO 12100

Det finns en ny frestelse i branschen: tron att bättre prompt betyder bättre metodik. Skriv bara att modellen ska ta hänsyn till ISO 12100, maskinens livsfaser, rimligen förutsebar felanvändning, riskuppskattning, riskvärdering och riskreducering, så ordnar sig resten. Visst, resultatet kan bli språkligt bättre. Mer ordnat. Mer komplett på ytan.

Men prompt tillför inte fakta som inte finns i indata.

AI kan inte själv lägga till att operatören måste följa materialbanan med blicken och därför ställer sig i en position som konstruktören aldrig tänkte på. AI kan inte själv förstå att rörelsen inte upphör direkt när stoppkommandot ges. AI kan inte gissa att rengöringen i praktiken kräver demontering av ett skydd, eller att miljön är dammig, fuktig, kall eller ATEX-påverkad. AI kan inte veta att instruktionen säger en sak medan verkstadsgolvet gör något annat.

Det betyder inte att AI saknar värde. Det betyder att värdet finns i att strukturera, ifrågasätta, jämföra och formulera tydligt. Inte i att ersätta insamling av fakta, observation av verklig användning eller tekniska beslut från konstruktör och användare.

När någon säger att modellen känner till ISO 12100 missar de ofta poängen. Problemet är sällan att modellen inte känner till struktur och vokabulär. Problemet är att riskbedömning av maskiner avgörs i detaljer som aldrig står i maskinnamnet och nästan aldrig i ett generellt prompt.

AI i riskbedömning av maskiner kräver tydligt beslutsspår

En riskbedömning som går att försvara måste gå att återskapa. Inte bara läsa. Återskapa.

Det ska gå att se varför en viss farlig situation bedömdes som relevant. Varför exponeringen ansågs ske dagligen, veckovis eller bara vid fel. Varför den möjliga skadan bedömdes som allvarlig eller mindre allvarlig. Varför just den valda riskreduceringen ansågs tillräcklig. Varför ett alternativ avvisades. Varför restrisken accepterades.

Utan det beslutsspåret blir dokumentet dimmigt. Tabellen visar resultatet, men inte tänkandet. Och det är tänkandet som blir avgörande när någon månader eller år senare ställer de obekväma frågorna: varför ignorerades rengöring? Varför togs inte omställning med? Varför räckte utbildning här, när människan fortfarande måste in i riskområdet? Varför sjönk risken i tabellen, trots att konstruktionen inte ändrades?

Här spelar ordningsföljden i ISO 12100 stor roll. Först ska du fråga om faran kan elimineras eller om risken kan minskas genom riskreducering genom säker konstruktion. Därefter kommer tekniska skyddsåtgärder. Först därefter information till användaren, varningar, instruktioner, utbildning och personlig skyddsutrustning. I många svaga bedömningar sker det tvärtom. Först skrivs en fara in. Sedan läggs utbildning, LOTO och skyltning in. Risken sjunker. Raden stängs.

Det där kan se rent ut i en tabell. Ingenjören vet bättre. Om människan fortfarande måste göra samma sak på samma farliga plats är problemet sannolikt inte brist på utbildning. Problemet sitter ofta i konstruktionen.

Exempel: gaffelsensor på en slittermaskin

Ta ett konkret fall. På en slittermaskin används en gaffelsensor för att känna av materialets läge. När materialbredden ändras måste operatören justera sensorn. Justeringen sitter olyckligt till, inne i ett område med rullar, axlar, nypställen, spänd bana och eventuellt delar av skärsystemet.

Vad ger ett generellt AI-svar? Troligen något i stil med detta: fara genom åtkomst till farlig zon vid omställning, möjlig skada genom indragning, klämning eller skärning, föreslagna åtgärder är LOTO, utbildning, märkning, skydd, nödstoppsfunktion och instruktion för omställning. Det låter ansvarsfullt. Det ser professionellt ut.

Men det kan ändå vara helt fel angreppssätt.

Den riktiga frågan är inte hur man beskriver åtkomst till farlig zon. Den riktiga frågan är varför operatören över huvud taget måste gå in i zonen för att utföra normal omställning. Om ändring av materialbredd är en återkommande produktionsuppgift kan den inte behandlas som en sällsynt serviceintervention. Då räcker det inte att skriva LOTO i en cell och gå vidare.

Det som måste utredas är bland annat följande:

  • Hur ofta sker omställning i verklig drift?
  • Måste justeringen göras vid stillastående maskin, i manuellt läge eller under provrörelse?
  • Måste operatören samtidigt observera materialbanan?
  • Finns risk för oväntad start eller eftergång?
  • Kräver uppgiften att ett skydd öppnas eller demonteras?
  • Lockar nuvarande lösning till kringgående av skyddsåtgärder?
  • Kan sensorn flyttas från utsidan av skyddet?
  • Kan mekanisk skala, receptbaserad positionering eller annan detektionsprincip eliminera behovet av åtkomst?

Först när de frågorna är utredda kan du börja välja rätt riskreducering. Kanske går det att lösa med riskreducering genom säker konstruktion, till exempel genom att flytta justeringen utanför riskområdet eller ändra sensorlösningen. Om inte, då kan tekniska skyddsåtgärder bli aktuella: förreglat skydd, begränsad hastighet i inställningsläge, hålldonsmanöver, tillträdeskontroll eller annan lösning som matchar den verkliga uppgiften. Men ordningen spelar roll. Om AI hoppar direkt till utbildning och LOTO utan att ifrågasätta konstruktionen, då producerar den dokumentation i stället för ingenjörsarbete.

AI som assistent, inte författare till ansvar

Det betyder inte att AI saknar plats i arbetet. Tvärtom. Rätt använd kan AI vara en effektiv assistent för ingenjören. Den kan hitta luckor i underlaget, jämföra scenarier, föreslå kontrollfrågor, strukturera ostrukturerade anteckningar och hjälpa till att skriva tydliga motiveringar. Den kan också hitta inkonsekvenser, till exempel när vald skyddsåtgärd inte matchar den farliga situation som beskrivs.

Men AI får inte blandas ihop med ansvar. Ansvaret ligger fortfarande hos tillverkaren, konstruktören, integratören, den som undertecknar dokumentationen och den som sätter maskinen på marknaden eller tar den i bruk. Det är samma ansvar som bär CE-arbetet. Det försvinner inte för att texten kom snabbt.

Om AI föreslår ett förreglat skydd måste någon annan förklara varför just den lösningen behövs, vilken åtkomst den ska förebygga, hur stoppförloppet ser ut, hur säkerhetsfunktionen ska valideras och om lösningen riskerar att skapa nya problem i rengöring eller drift. Om AI skriver utbilda operatören måste någon annan svara på om utbildning över huvud taget kan reducera risken i just det fallet. Om AI föreslår LOTO måste någon annan fråga om vi talar om planerat underhåll en gång per månad eller materialstopp flera gånger per skift.

Det är därför skillnaden mellan två arbetssätt är så viktig:

  • AI, gör riskbedömningen åt mig.
  • Låt oss genomföra riskbedömningen enligt process och använda AI där den kan upptäcka luckor och förbättra kvaliteten.

Den första vägen producerar lätt en snygg slutprodukt. Den andra vägen stärker själva processen. Och i maskinsäkerhet är dokumentet bara spåret efter processen, aldrig dess ersättare.

När AI blir en säkerhetsfunktion är spelplanen en annan

Det är också viktigt att skilja på två helt olika användningar av AI. Den första är AI som stöd för ingenjörens arbete med dokumentation och analys. Den andra är AI eller maskininlärning i själva maskinen, särskilt när systemet ska bidra till en säkerhetsfunktion. Där blir kraven en helt annan liga.

Maskinförordningen (EU) 2023/1230 är tydlig: tillverkaren ska genomföra riskbedömning för att fastställa vilka hälso- och säkerhetskrav som gäller och sedan konstruera och tillverka maskinen utifrån resultatet. Det ansvaret ligger inte hos en språkmodell. Förordningen pekar dessutom uttryckligen ut system med helt eller delvis självändrande beteende som använder maskininlärning och tillhandahåller säkerhetsfunktioner som en särskild kategori. Det är inte kosmetik. Det är en signal om att sådana lösningar kräver betydligt mer disciplin, inklusive bedömning med tredje part där regelverket kräver det.

AI Act förstärker samma logik. När ett AI-system används som säkerhetskomponent i en produkt som omfattas av unionslagstiftning och kräver tredjepartsbedömning, då rör vi oss i hög risk. Då räcker det inte med att säga att modellen är träffsäker i testmiljö. Då krävs riskhantering genom hela livscykeln, mänsklig övervakning, dokumenterad noggrannhet, robusthet, cybersäkerhet och en lösning som beter sig säkert även när verkligheten blir stökig.

Och det är precis här marknadsföringsspråket brukar krascha mot verkstadsgolvet. Frågan är inte om modellen har 95 eller 99 procents träffsäkerhet i en presentation. Frågan är vad som händer i återstoden. Vad händer när sensorn blir smutsig? När ljuset förändras? När vibrationerna ökar? När materialet är ovanligt? När någon beter sig på ett sätt som utvecklaren inte tänkte på? När data i verklig drift avviker från data i test? Det är inte filosofiska frågor. Det är ingenjörsfrågor.

Ju närmare AI kommer en säkerhetsfunktion, desto mindre utrymme finns det för löften om att algoritmen brukar fungera bra. Då måste du kunna visa vad systemet gör i förutsebara lägen, vad det gör i felaktiga lägen och hur skadeverkningar begränsas när något ändå går snett. Det är där relevanta ISO- och IEC-standarder, verifiering, validering och ett tydligt beslutsspår blir avgörande.

Slutsats: använd AI för att skärpa processen, inte för att simulera den

AI i riskbedömning av maskiner kan vara mycket användbart. Det kan spara tid, höja språkets kvalitet, hitta blinda fläckar och göra dokumentationen mer konsekvent. Men om processen är svag kommer AI bara att leverera en svag riskbedömning i bättre kostym.

Det som skiljer en försvarbar riskbedömning från en snygg kuliss är inte mängden text. Det är om du kan följa kedjan från uppgift till farlig situation, från farlig händelse till möjlig skada, från riskuppskattning och riskvärdering till vald riskreducering och vidare till en begriplig restrisk. Det är om dokumentationen visar hur ni tänkte. Det är om den håller när någon frågar varför.

Så ja, använd AI. Men använd det som assistent. Låt det utmana, strukturera och kontrollera. Låt det aldrig spela rollen som ansvarig ingenjör. För i maskinsäkerhet skyddar inte välformulerade tabeller människor. Det gör bra konstruktion, rätt skyddsåtgärder och ett tydligt beslutsspår.

Vanliga frågor

Kan AI ersätta en ingenjör vid riskbedömning av maskiner?

Nej. AI kan påskynda insamlingen av underlag, struktureringen av anteckningar och redigeringen av tabellen, men den ersätter inte den analys som krävs enligt ISO 12100. Modellen observerar inte maskinen, känner inte till operatörens faktiska arbetsuppgifter och förstår inte projektets begränsningar om ingen anger dem.

Riskbedömning är en process: fastställande av maskinens begränsningar, identifiering av faror, riskuppskattning, riskvärdering och riskreducering. AI kan vara ett verktyg i denna process, men inte den som utför den fackmässiga bedömningen.

Kan en riskbedömning med AI vara förenlig med ISO 12100?

Ja, men bara när AI stöder en redan genomförd analys och inte utger sig för att vara den. Överensstämmelse med ISO 12100 följer inte av en snygg tabellayout, utan av om det går att återskapa resonemanget bakom konstruktionsbesluten.

Om posterna avser en specifik utsatt person, en uppgift, en fas i maskinens livscykel, en farlig situation och en farlig händelse, och de använda skyddsåtgärderna är verifierade, kan material som tagits fram med hjälp av AI vara användbart. Textgenerering i sig skapar ingen överensstämmelse.

Varför är en lista över AI-relaterade faror ännu inte en riskbedömning?

En lista över faror är bara början. Enbart en post av typen mekanisk fara, klämning, fast skydd förklarar inte vem som exponeras, vid vilket arbetsmoment, hur ofta åtkomst sker och vad som initierar den farliga händelsen.

I praktiken kan två maskiner av samma typ kräva en helt annan riskreducering, om omställningar, borttagning av blockeringar, rengöring, justering eller serviceåtkomst ser olika ut. En tabell utan kontext blir lätt en skenbild av processen.

När hjälper AI faktiskt till vid riskbedömning av maskiner?

AI ger störst värde där man snabbt behöver strukturera expertkunskap, inte ersätta den. Det fungerar väl som redaktionellt och analytiskt stöd efter att data från maskinen har samlats in.

  • att skapa en preliminär karta över faror för en känd maskintyp,
  • att strukturera observationer från granskning, foton och anteckningar,
  • att se till att maskinens livsfaser och typiska uppgifter inte utelämnas,
  • att enhetliggöra dokumentationens språk efter de beslut som teamet har fattat.
Vilka indata behöver man ge AI för att resultatet ska vara meningsfullt?

Ju mer allmän indatabeskrivningen är, desto mer allmänt hållet och skenbart blir resultatet. För att AI ska vara meningsfull vid riskbedömning av maskiner måste man ange maskinens begränsningar, användningssättet och verkliga interaktioner mellan människa och maskin.

  • roller för utsatta personer,
  • uppgifter i varje fas av maskinens livscykel,
  • driftslägen, åtkomstpunkter och energikällor,
  • frekvensen för ingrepp, blockeringar, omställningar och underhåll,
  • befintliga skyddsåtgärder samt kända förbikopplingar av skyddsanordningar.

Redo för förändring?

Skapa ett konto och generera compliant dokumentation på 15 minuter.

Starta gratis provperiod Inget kreditkort krävs • 14 dagar gratis