Az AI a gépek kockázatértékelésében ma már nem jövőidő, hanem napi gyakorlat. Pár sor a promptban, egy gépnév, néhány általános adat, és már jön is a rendezett táblázat: veszélyek, lehetséges sérülések, védőintézkedések, kockázatcsökkentés, maradék kockázat. Első ránézésre minden rendben. Csakhogy a szép táblázat még nem gépek kockázatértékelése ISO 12100 szerint.
A valódi érték nem abból jön, hogy a dokumentum technikásan hangzik. Abból jön, hogy vissza lehet-e követni, miért született egy tervezési döntés. Ki lehet-e mutatni, milyen feladatnál, melyik életciklus-fázisban, milyen veszélyhelyzetből, milyen veszélyes eseményen keresztül jutottunk el egy adott védőintézkedéshez. Ha ez nincs meg, akkor nem elemzés készült, hanem díszlet.
Ha a módszertani alapokat külön is át akarod nézni, érdemes elolvasni a gépek kockázatértékelése ISO 12100 szerint összefoglalót, illetve a CE és a 2023/1230/EU követelményei áttekintést.
AI a gépek kockázatértékelésében: új technológia, régi probléma
Sokan úgy beszélnek erről, mintha az AI hozta volna a bajt. Nem. A baj régebbi. Évekig ugyanaz ment: Excel, másolt sorok, általános veszélyek, megszokott védőintézkedések, a végén valahogy lecsökkentett maradék kockázat. A dokumentum megvolt. A folyamat nagyon sokszor nem.
Ezért fontos kimondani valamit, amit a gyakorlatban túl sokan megkerülnek: a probléma nem az Excel volt. Az csak eszköz. A probléma az volt, hogy könnyű volt belőle a folyamat utánzatát gyártani. Beírtuk, hogy „mozgó alkatrészek”, „zúzódás”, „rögzített burkolat”, „kezelő oktatása”, és máris komolynak látszott minden. Az AI ugyanezt a hibát ma gyorsabban, szebben és meggyőzőbben tudja elkövetni.
Itt csúszik félre a gondolkodás. A dokumentum nem azonos a folyamattal. A veszélylista nem azonos az elemzéssel. A jó stílus nem azonos a műszaki megalapozottsággal. És az, hogy egy szöveg úgy hangzik, mintha szakértő írta volna, még egy pillanatig sem bizonyítja, hogy valaki valóban megértette a gépet.
Az AI különösen azért kockázatos ezen a területen, mert általános szinten sokszor egészen jól teljesít. Egy szállítópályánál megemlíti a behúzási pontokat. Egy présnél előhozza a szerszámzónát. Egy robotcellánál felismeri az ütközést, a zónabelépést, a kézi üzemet. Egy csomagológépnél előkerülnek a hajtások, kések, hőelemek, pneumatikus részek. Csak éppen a gépek kockázatértékelése nem általános szinten dől el. Hanem részletben. Abban az egy hozzáférésben. Abban az egy műveletben. Abban az egy veszélyhelyzetben, ahol az ember tényleg találkozik a géppel.
ISO 12100 nem a veszélylistával kezdődik
Az egyik leggyakoribb tévedés így hangzik: „Soroljuk fel, milyen veszélyei vannak a gépnek.” Ez hasznos kezdés lehet, de önmagában kevés. Az ISO 12100 nem statikus veszély-katalógust kér. Azt kéri, hogy a gépet az emberrel való kapcsolatában vizsgáld.
Egy éles él veszély. De a kockázat csak akkor válik valós kérdéssé, ha valaki hozzáérhet. Egy hajtás veszélyforrás. De a kockázat attól függ, ki, mikor, miért, milyen körülmények között kerül a közelébe. Egy mozgó mechanizmus lehet teljesen elzárt normál üzem közben, majd kritikus lehet tisztításnál, beállításnál, elakadás-elhárításnál vagy hibaelhárításnál.
A jobb kérdés tehát nem az, hogy „milyen veszélyei vannak a gépnek?”, hanem ez:
- Ki kerülhet kapcsolatba a géppel?
- Melyik életciklus-fázisban?
- Milyen konkrét feladat közben?
- Milyen veszélyhelyzet alakulhat ki?
- Milyen veszélyes esemény indíthatja el a sérüléshez vezető láncot?
- A választott védőintézkedések tényleg megszüntetik a problémát, vagy csak jól mutatnak a táblázatban?
Ez nem szőrszálhasogatás. Ez maga a lényeg. Mert a kockázatértékelésben a kezelő napi rutinja, a karbantartó valós hozzáférése, a takarítás gyakorisága, az elakadás-elhárítás módja és az ésszerűen előre látható helytelen használat legalább annyira fontos, mint maga a gép felépítése.
Ráadásul nem minden eset írható le ugyanazzal a merev sémával. Van, amikor a feladatból indulunk ki: tisztítás, átállítás, beállítás, karbantartás, tesztelés. És van, amikor egy veszélyes eseményből: váratlan indítás, terhelés leesése, stabilitásvesztés, vezérlési hiba, energiafelszabadulás, csőtörés. A jó módszer mindkét irányt kezeli. A gyenge táblázat viszont mindent ugyanabba a sorlogikába akar belegyömöszölni.
Az AI hajlamos ezt a hibát felerősíteni. Nagyon szeret elegáns, lineáris szerkezetet gyártani. Nyíl, oszlop, összefüggő mondat, kész. A valóság viszont gyakran csúnyább. Egy veszélyhelyzet nem mindig egyetlen feladatból nő ki. Egy veszélyes esemény nem mindig illeszthető be szépen egy Excel-sorba. A gép és az ember kapcsolata nem sablon, hanem valós működés.
AI a gépek kockázatértékelésében: asszisztens, nem a felelősség szerzője
Itt érdemes helyre tenni az AI szerepét. Segíthet? Igen. Sőt, jól használva nagyon is hasznos. Tud ellenőrző kérdéseket adni, segíthet hiányzó forgatókönyveket észrevenni, rendszerezheti az információt, javíthatja a dokumentáció nyelvét, és gyorsíthatja a jelentés összeállítását.
De egy dolgot nem szabad rábízni: a felelősséget. Az nem az AI-nál marad, hanem a gyártónál, a tervezőnél, az integrátornál, a dokumentációt jóváhagyó személynél és annál a szereplőnél, aki a gépet forgalomba hozza vagy üzembe helyezi. A 2023/1230/EU nem azt mondja, hogy legyen egy jól kinéző kockázatértékelési dokumentum. Azt mondja, hogy el kell végezni a gépek kockázatértékelését annak meghatározására, mely egészségvédelmi és biztonsági követelmények alkalmazandók, és milyen védőintézkedések szükségesek a kockázatcsökkentéshez.
Vagyis nem a kész szöveg a lényeg, hanem az odáig vezető mérnöki munka. Az AI írhatja azt, hogy „alkalmazzon reteszelt burkolatot”. Rendben. De ki mondja meg, hogy miért pont ott? Milyen hozzáférés ellen? Milyen megállási idő mellett? Melyik biztonsági funkció részeként? Milyen gyakoriságú belépésnél? Nem hoz-e létre újabb veszélyt? Nem fogják-e megkerülni, mert akadályozza a termelést? Ezeket nem a nyelvi modell dönti el.
Ugyanez igaz a közhelyes válaszokra is. „Képezze a kezelőt.” „Alkalmazzon LOTO eljárást.” „Jelölje a veszélyzónát.” Szép mondatok. Csak attól még lehet, hogy a tervezés rossz. Ha a kezelőnek minden műszakban többször be kell nyúlnia a mozgó részek közelébe, akkor nem a képzés hiánya az alapbaj. Hanem az, hogy a gép úgy van kialakítva, hogy az embernek rendszeresen veszélyhelyzetbe kell lépnie.
A prompt nem ISO 12100 módszertan
Sokan itt keresik a megoldást: akkor majd jobb prompt kell. „Vedd figyelembe az ISO 12100-at.” „Vizsgáld a teljes életciklust.” „Adj kezdeti kockázatot, védőintézkedéseket és maradék kockázatot.” Ettől az eredmény lehet rendezettebb. De a gond ettől még nem oldódik meg.
A prompt ugyanis nem pótolja a tényeket. Nem tudja, hogy a kezelő a gép rossz oldaláról figyeli a folyamatot, mert onnan látja az anyagot. Nem tudja, hogy a tisztítás csak nyitott burkolattal végezhető el. Nem tudja, hogy a dokumentáció két embert ír elő, a valóságban viszont egy ember dolgozik. Nem tudja, hogy az „alkalmankénti” átállítás valójában naponta hatszor történik. Nem tudja, hogy a karbantartók számára egy elméletileg ritka hiba a gyakorlatban heti rutin.
Ha a bemenet általános, az AI legfeljebb statisztikailag hihető választ ad. Ez nem ugyanaz, mint konkrét gépre készített értékelés. A gépek kockázatértékelése ott válik valóságossá, ahol a részletek belépnek a képbe. A prompt megnyithat egy beszélgetést. De nem helyettesíti a bejárást, a megfigyelést, a tervezői döntést és a felelősséget.
A döntési nyomvonal többet ér, mint a szép táblázat
Egy komoly kockázatértékelésnek visszafejthetőnek kell lennie. Nem csak elolvashatónak. Visszafejthetőnek. Vagyis utólag meg kell tudni mondani, miért kapott egy kockázat egy adott minősítést, miért tekintettük lényegesnek az adott veszélyhelyzetet, miért ilyen védőintézkedéseket választottunk, és miért elfogadható a maradék kockázat.
Ez a döntési nyomvonal. Enélkül a táblázat csak eredményt mutat, gondolkodást nem. Auditnál, baleset utáni vizsgálatnál, vevői vitánál, módosításnál vagy hatósági ellenőrzésnél pedig pontosan ez a gondolkodás lesz érdekes. Az a mondat, hogy „ezt az AI így javasolta”, semmivel sem jobb, mint a régi klasszikus: „így maradt a korábbi Excelből”.
A jó döntési nyomvonalból látszik például:
- milyen géphatárokat vettünk figyelembe;
- mely életciklus-fázisoknál azonosítottunk veszélyhelyzetet;
- milyen feladat végzése közben lép be az ember a kockázatos zónába;
- mi indíthat veszélyes eseményt;
- a kockázatcsökkentés miért önmagában biztonságos tervezéssel kezdődött, és nem pusztán figyelmeztetéssel;
- mely kockázatok maradtak fenn, és miért nem csökkenthetők ésszerűen tovább.
Ez az a pont, ahol az AI lehet jó segéderő. Tud következetesebben fogalmazni, tud rákérdezni hiányokra, tud ellentmondásokat keresni. De ha maga a folyamat nincs rendben, akkor legfeljebb elegáns ködöt gyárt.
Megismételhető folyamat kell, nem hangulati táblázat
A gépek kockázatértékelése könnyen válik személyfüggővé. Az egyik mérnök súlyosnak lát egy helyzetet, a másik közepesnek. Az egyik megelégszik a kezelő oktatásával, a másik rögtön tervezési változtatást követel. Ennek egy része tapasztalat kérdése. A másik része viszont abból jön, hogy nincs fegyelmezett folyamat.
Ha mindenki saját stílusban, saját prompttal, saját táblázatlogikával dolgozik, akkor az AI nem csökkenti az önkényességet, hanem növeli. Mindig kicsit más szöveg, kicsit más feltételezés, kicsit más következtetés születik. Biztonságtechnikában a „kicsit más” rossz jel. Nem azért, mert minden gépnek egyformának kell lennie, hanem azért, mert a döntésekhez vezető út legyen következetes.
Egy stabil folyamat tipikusan ugyanazokat a lépéseket kényszeríti ki: géphatárok, rendeltetésszerű használat, ésszerűen előre látható helytelen használat, életciklus-fázisok, feladatok, veszélyhelyzetek, veszélyes események, veszélyek, lehetséges károk, becslés, értékelés, kockázatcsökkentés, maradék kockázat, indokolás. Ha ez a gerinc megvan, az AI gyorsító lehet. Ha nincs meg, az AI csak ügyesebb szöveggyár.
Példa: villás érzékelő egy slitter gépen
Nézzünk egy valóságszagú helyzetet. Egy slitter gépen a villás érzékelő a szalag helyzetét figyeli. A szélességváltáskor a kezelőnek át kell állítania az érzékelőt. Csakhogy a beállítási pont a veszélyes térben van. Ahhoz, hogy az érzékelőt elmozdítsa, az embernek mozgó görgők, tengelyek, behúzási pontok, feszített anyag és adott esetben a vágórendszer közelébe kell mennie.
Mit ad erre egy általános AI-válasz? Valószínűleg valami ilyesmit: veszély a kezelő belépése a veszélyes zónába átállítás közben; lehetséges következmény behúzás, zúzódás, vágás; védőintézkedések: LOTO, kezelő oktatása, veszélyzóna-jelölés, egyéni védőeszköz, átállítási utasítás, burkolat, vészleállítás. Ismerős? Igen. Elég? Nagyon nem.
Mert a helyes kérdés nem az, hogyan írjuk le szépen a kockázatot. A helyes kérdés ez: miért kell a kezelőnek egy normál, ismétlődő átállítás miatt egyáltalán belépnie a veszélyes térbe?
Ha a szélességváltás normál gyártási művelet, akkor azt nem lehet karbantartási kivételként kezelni. Nem lehet egy sor LOTO-val elintézni, majd hátradőlni. Meg kell nézni, hogy az érzékelő elhelyezése eleve rossz-e. Lehet-e kívülről állítani? Kaphat-e vezetősínt, skálát, receptúra szerinti pozicionálást? Lecserélhető-e más detektálási megoldásra? Átalakítható-e az átállítás sorrendje úgy, hogy az ember ne kerüljön veszélyhelyzetbe?
Ez már az önmagában biztonságos tervezés kérdése. És itt látszik meg, hogy a kockázatcsökkentés nem a táblázat utolsó oszlopában történik, hanem a konstrukcióban. Ha a hozzáférési igény tervezéssel megszüntethető, akkor azt kell megtenni. Ha nem szüntethető meg teljesen, utána jöhetnek a további védőintézkedések: reteszelt burkolat, beállítási üzemmód, korlátozott sebesség, engedélyező készülék, biztonsági funkció, energiaelválasztás, használati információk.
Egy jó folyamat ilyenkor nem sablonválaszt ad, hanem kényelmetlen kérdéseket tesz fel:
- Az átállítás kezelői feladat vagy karbantartási feladat?
- Milyen gyakran történik?
- Álló gépnél, kézi üzemben vagy próbamozgás közben zajlik?
- Várható-e váratlan indítás vagy maradó mozgás?
- A jelenlegi kialakítás ösztönzi-e a burkolat megkerülését?
- Megoldható-e a beállítás a veszélyes téren kívülről?
- A tervezési módosítás után mi marad tényleges maradék kockázatként?
Ettől lesz a különbség ordító a dokumentum és a folyamat között. A dokumentum leírja a problémát. A folyamat megpróbálja megszüntetni.
AI a gépek kockázatértékelésében és a biztonsági funkció: ez már más liga
Még egy határvonalat nagyon tisztán kell látni. Az egyik dolog az, amikor az AI a mérnök munkáját támogatja a gépek kockázatértékelésében. A másik az, amikor az AI vagy a gépi tanulás maga a gép része, és biztonsági funkciót lát el. Ez utóbbi már nem ugyanaz a játék.
A 2023/1230/EU logikája világos: a gyártónak a kockázatértékelés eredményei alapján kell megterveznie és megépítenie a gépet úgy, hogy a veszélyeket megszüntesse vagy a kockázatot minimalizálja. Közben a rendelet külön is érzékeny azokra a rendszerekre, amelyek részben vagy teljesen önmódosító viselkedéssel biztosítanak biztonsági funkciót. Itt már nem elég annyit mondani, hogy „a modell általában jól működik”. Itt megfelelőség, műszaki alátámasztás, ellenőrizhetőség és adott esetben bejelentett szervezet bevonása kerül a képbe.
Az AI Act ugyanezt a logikát erősíti. Ha egy AI-rendszer termék biztonsági elemeként működik, vagy maga olyan szabályozott termékhez kapcsolódik, amelyhez harmadik fél általi megfelelőségértékelés kell, akkor könnyen magas kockázatú kategóriába esik. Ez nem divatszabály. Ez józan mérnöki követelmény. Minél közelebb kerül egy rendszer a biztonsági funkcióhoz, annál kevésbé fér bele a homályos működés, a gyenge döntési nyomvonal és a „majd a statisztika kisegít” hozzáállás.
Ilyenkor már olyan kérdések számítanak, mint az emberi felügyelet, a pontosság, a robusztusság, a kiberbiztonság, a hibakezelés, a biztonságos állapotba vitelezés és az, hogy mi történik akkor, amikor a rendszer nem azt látja, amire tanították. Rossz fényviszony, szennyezett érzékelő, szokatlan anyag, vibráció, környezeti változás, kezelői rögtönzés, részleges meghibásodás. A bemutatóteremben okosnak tűnő rendszer a gyártósoron akkor ér valamit, ha ezeket a helyzeteket is védhetően kezeli.
Röviden: az AI mint elemzést támogató eszköz hasznos lehet. Az AI mint biztonsági funkciót megvalósító rendszer viszont egészen más fegyelmet kíván. Itt nem hangzatos ígéret kell, hanem bizonyítható műszaki megfelelőség.
Zárszó
Az AI nem ellenség. De a gépek kockázatértékelésében csak akkor hasznos, ha a helyére tesszük. Ne szerzőt láss benne, hanem asszisztenst. Ne kész választ várj tőle, hanem kemény kérdéseket. Ne a szép táblázatnak higgy, hanem a döntési nyomvonalnak.
Az igazság egyszerű: a rossz módszert az AI nem javítja meg, csak felgyorsítja. A jó módszert viszont valóban erősítheti. És biztonságtechnikában ez a különbség nem elméleti. Ez az a határ, amely a papíron rendben lévő gépet elválasztja a ténylegesen biztonságos géptől.