UI pri oceni tveganja strojev
TL;DR
  • Lepo videti AI-tabela še ni ocena tveganja po ISO 12100; brez povezave do nalog, faz življenjske dobe in nevarnih situacij je le embalaža.
  • Glavna nevarnost ni AI sam, ampak zamenjava dokumenta s procesom: generirane vrstice lahko zvenijo strokovno in so tehnično prazne.
  • Tveganje je treba utemeljiti iz konkretne izpostavljenosti človeka, naloge, režima obratovanja, nevarne situacije in možnega nevarnega dogodka.
  • AI je uporaben kot pomoč pri vprašanjih, iskanju vrzeli in urejanju dokumentacije, ne pa kot nadomestek presoje in odgovornosti inženirja.
  • Uredba (EU) 2023/1230 zahteva dejansko oceno tveganja in izbiro ukrepov za zmanjšanje tveganja, ne le dokument, ki deluje profesionalno.

AI pri oceni tveganja strojev zveni kot logičen naslednji korak. Leta smo živeli z Excelom, kontrolnimi seznami in tabelami, ki so se kopirale iz projekta v projekt. Zdaj je skušnjava še večja: vpišeš ime stroja, dodaš nekaj splošnih podatkov in v nekaj sekundah dobiš dokument, ki izgleda resno. Nevarnosti so navedene. Posledice so opisane. Zaščitni ukrep je vpisan. Zmanjšanje tveganja je prikazano. Preostalo tveganje je lepo padlo v zadnjem stolpcu.

Težava je preprosta: lepo napisana tabela še ni ocena tveganja strojev po ISO 12100. Dokument ni proces. Videz ni analiza. Vrednost ocene tveganja ni v številu vrstic, temveč v tem, ali se da za vsako pomembno odločitev obnoviti sled odločanja. Kdo je izpostavljen, med katero nalogo, v kateri fazi življenjske dobe stroja, v kakšnih pogojih, zaradi katere nevarnosti, skozi katero nevarno situacijo in kateri nevarni dogodek? Če tega ni, potem nimamo trdne ocene. Imamo samo dobro embalažo.

AI pri oceni tveganja strojev ne rešuje stare napake

Največja zmota je, da je problem prinesel AI. Ni ga. Problem je star. Že prej je bilo preveč ocen tveganja narejenih tako, da so bile rubrike zapolnjene, povezava z realnim delom pa zelo tanka. V tabeli je bila nevarnost. V tabeli je bil ukrep. V tabeli je bilo zmanjšanje tveganja. Nihče pa ni zares preveril, kaj operater počne pri čiščenju, pri odpravljanju zastojev materiala, pri nastavljanju, pri ročnem načinu, pri servisnem dostopu ali pri menjavi formata.

Excel ni bil problem. Bil je samo orodje. Iz njega je bilo pač zelo lahko narediti kuliso procesa. Danes AI naredi isto napako hitreje, lepše in bolj prepričljivo. Prej si pogosto videl, da je nekdo prepisal stare vrstice. Zdaj lahko besedilo zveni tako, kot da ga je pisal izkušen strokovnjak. In prav zato je tveganje večje. Slab Excel se je pogosto sam izdal. Slabo besedilo, ponavljanje, prazne formule. Tabela, ki jo pripravi AI, je lahko jezikovno odlična in še vedno tehnično prazna.

Ocena tveganja strojev se ne odloči na ravni splošnosti. Odloči se v podrobnosti. V tistem enem dostopu. V tisti eni nalogi. V tistem enem režimu obratovanja. V tisti eni situaciji, kjer človek naredi nekaj malo drugače, kot predvideva dokumentacija. AI brez konteksta tega ne ve. Lahko ugiba. V varnosti strojev pa je ugibanje uporabno samo do prve nezgode.

ISO 12100 se ne začne s seznamom nevarnosti

To je eden najpogostejših zdrsov: vprašanje se postavi narobe. Namesto da bi vprašali, kdo, kdaj, zakaj in kako pride v stik s strojem, začnemo s suhim vprašanjem, katere nevarnosti ima stroj. Seveda jih ima. Mehanske, električne, toplotne, ergonomske, povezane s krmiljenjem. To pa še ne pomeni, da smo naredili oceno tveganja.

Nevarnost sama po sebi še ne opiše tveganja. Oster rob je nevarnost, toda tveganje nastane šele, ko lahko nekdo pride v stik z njim. Gibajoči se del je nevarnost, a tveganje je odvisno od tega, ali ima človek razlog, da se mu približa, in ali to počne med normalnim delom, nastavljanjem, čiščenjem, vzdrževanjem ali odpravljanjem napake.

Pravo vprašanje je zato drugačno: katera konkretna oseba se lahko v kateri fazi življenjske dobe stroja med katero nalogo znajde v nevarni situaciji? Šele potem pride naslednje vprašanje: kaj lahko sproži nevarni dogodek? Nepričakovan zagon? Dostop do gibajočih se delov? Preostala energija? Napaka v logiki krmiljenja? Slaba vidljivost? Enosebno delo? Neustrezen dostop? Razumno predvidljiva napačna uporaba?

ISO 12100 ne sili vsega v eno samo togo shemo. Včasih je izhodišče naloga človeka. Včasih je izhodišče dogodek v stroju, okolju ali krmiljenju. Dobra ocena tveganja mora obvladati oba pogleda. Če analizo gradimo samo kot linearen obrazec, izgubimo scenarije, ki ne sedejo lepo v eno vrstico.

To je pomembno tudi z vidika Uredbe o strojih (EU) 2023/1230. Ta ne zahteva dokumenta, ki izgleda kot ocena tveganja. Zahteva, da proizvajalec opravi oceno tveganja za določitev relevantnih bistvenih zdravstvenih in varnostnih zahtev ter nato stroj projektira in izdela tako, da nevarnosti odpravi ali tveganja zmanjša. To v praksi pomeni prehod skozi omejitve stroja, predvideno uporabo, razumno predvidljivo napačno uporabo, ugotavljanje nevarnosti, ocenjevanje tveganja, vrednotenje tveganja in zmanjšanje tveganja. To je proces. Ne dekoracija.

AI pri oceni tveganja strojev: pomočnik, ne avtor odgovornosti

AI ima pri tem resno uporabno vlogo. Lahko pomaga postavljati kontrolna vprašanja, odkrivati vrzeli, primerjati scenarije, opozoriti na nedoslednosti in urediti dokumentacijo v berljivo obliko. To je koristno. Še posebej tam, kjer ima inženir že zbrane dejanske podatke o stroju in želi hitreje skozi strukturiran postopek.

Kar AI ne sme postati, je avtor odgovornosti. Odgovornost ne ostane pri modelu. Ostane pri proizvajalcu, projektantu, integratorju, osebi, ki podpisuje dokumentacijo, in subjektu, ki stroj daje na trg ali v uporabo. Oni morajo dokazati, da ocena tveganja ni samo besedilo, ampak rezultat dejanskega procesa.

AI lahko predlaga blokirno varovalo z zaklepanjem. Dobro. Ampak nekdo mora odgovoriti, zakaj ravno to. Za kateri dostop? Pri kakšnem času ustavljanja? Za katero varnostno funkcijo? Pri kakšni pogostosti vstopov? Ali bo varovalo otežilo čiščenje? Ali bo zaradi tega spodbujalo obvode? Ali je treba predvideti poseben nastavitveni režim? Ali izbrana rešitev ustreza zahtevani zanesljivosti?

AI lahko napiše, da je treba usposobiti operaterja. Tudi to zveni pravilno. Vendar usposabljanje ni čarobna bližnjica. Če mora človek vsak dan segati v bližino gibajočega se mehanizma, težava ni pomanjkanje usposabljanja. Težava je projektna rešitev, ki človeka sili v stik z nevarnostjo.

AI lahko doda postopek LOTO. Spet: mogoče pravilno, mogoče povsem zgrešeno. Če gre za redko servisno delo, je to lahko ustrezen zaščitni ukrep. Če pa gre za poseg, ki ga operater izvaja večkrat na izmeno, zapis LOTO v tabeli še ne pomeni realnega zmanjšanja tveganja. Lahko pomeni samo željo, vpisano v celico.

Prompt ni metodika ISO 12100

Tukaj se pojavi druga skušnjava: če je odgovor AI še vedno preveč splošen, bomo pač napisali boljši prompt. Dodaj ISO 12100. Dodaj vse faze življenjske dobe stroja. Dodaj začetno tveganje, zaščitni ukrep in preostalo tveganje. Rezultat je lahko boljši. Ne spremeni pa bistva. Prompt ne ustvari dejstev, ki jih ni v vhodnih podatkih.

AI ne ve, da je upravljalni panel na napačni strani. Ne ve, da operater pri opazovanju traku stoji tam, kjer ga projektant ni predvidel. Ne ve, da je varovalo težko in ga po dveh tednih vsi puščajo odprtega. Ne ve, da sta v navodilih predvideni dve osebi, v realnosti pa dela ena. Ne ve, da se prenastavitev, označena kot občasna, v praksi izvaja večkrat dnevno. Ne ve, da je okvara, ki jo je nekdo ocenil kot malo verjetno, za vzdrževanje normalna ponedeljkova rutina.

Prav zato je pri oceni tveganja najvrednejši del pogosto v vprašanjih, ne v samodejnih odgovorih.

Kako uporabljati AI pri oceni tveganja strojev brez slepil

Dober pristop se ne začne z ukazom, naj AI izdela tabelo. Začne se z zbiranjem konteksta. Najprej dejstva, potem podpora. Najprej stroj, potem besedilo.

  • Katere so omejitve stroja glede uporabe, prostora, dostopa in okolja?
  • Katere faze življenjske dobe stroja je treba obravnavati?
  • Kdo uporablja stroj, kdo ga čisti, kdo ga vzdržuje, kdo odpravlja zastoje?
  • Kateri dostopi obstajajo pri normalnem delu, prenastavitvi, ročnem načinu in servisiranju?
  • Kateri viri energije so prisotni in kje nastaja preostala energija?
  • Kateri nevarni dogodki so realni glede na zasnovo, krmiljenje in okolje?
  • Kje je razumno predvidljiva napačna uporaba bolj verjetna od idealne uporabe iz navodil?

Ko so ti podatki znani, je AI lahko zelo uporaben. Lahko preveri popolnost scenarijev. Lahko opozori, da v analizi manjka čiščenje, ročni način ali dostop pri odpravljanju zastoja. Lahko primerja zaščitni ukrep s preostalim tveganjem in pokaže nedoslednost. Lahko pomaga, da je sled odločanja v dokumentaciji jasnejša in bolj pregledna.

To je pravilna logika: AI podpira proces, ne nadomešča procesa.

Primer iz prakse: slitter, senzor viličnega tipa in navidezno dober odgovor

Vzemimo tipičen primer. Na slitterju senzor viličnega tipa zaznava položaj traku. Pri spremembi širine materiala ga mora operater prenastaviti. Težava: nastavitev je v nevarnem območju. Da premakne senzor, mora človek v prostor z valji, točkami vlečenja, napetim trakom ali elementi rezalnega sklopa.

Splošen odgovor AI bo zelo verjetno zvenel razumno: nevarnost dostopa v nevarno območje med prenastavitvijo, možne posledice so ujetje, zmečkanje ali ureznina, zaščitni ukrep so LOTO, označitev območja, usposabljanje operaterja, navodila, varovalo in gumb za zaustavitev v sili. Je to narobe? Ne nujno. Je to dovolj? Še zdaleč ne.

Pravo vprašanje ni, kako lepo opisati vstop v nevarno območje. Pravo vprašanje je, zakaj mora operater sploh vstopiti v nevarno območje, da opravi normalno prenastavitev stroja. Če je sprememba širine traku običajna proizvodna naloga, je obravnava kot izjemen servisni poseg napačna že v izhodišču.

Tukaj mora ocena tveganja pritisniti tja, kjer zaboli: ali se da nastavitev senzorja prestaviti izven nevarnega območja? Ali je možno mehansko vodilo z dostopom od zunaj? Ali se lahko uvede skala, receptura, hitra nastavitev ali drugačen princip zaznave? Ali se spremeni nosilec, mesto senzorja ali celotna sekvenca prenastavitve?

Šele če potrebe po dostopu ni mogoče razumno odstraniti s projektno spremembo, pridejo na vrsto nadaljnji zaščitni ukrepi: blokirno varovalo z zaklepanjem, poseben nastavitveni način, omejena hitrost, potrditveno upravljanje, varna zaustavitev, postopek odklopa energije, navodila in usposabljanje. Vrstni red ni birokracija. Vrstni red je bistvo ISO 12100.

Tu AI brez procesa hitro zdrsne v napačno smer. Namesto da bi pomagal odpraviti vzrok tveganja, začne lepiti tipične ukrepe na posledico. V dokumentu to izgleda urejeno. V hali pa človek še vedno sega tja, kamor ne bi smel.

Ko AI postane del varnostne funkcije, se teren spremeni

Treba je jasno ločiti dve stvari. Prva je uporaba AI kot orodja za podporo inženirju pri oceni tveganja strojev. Druga je uporaba AI ali strojnega učenja v samem stroju, kadar tak sistem zagotavlja varnostno funkcijo. To ni ista liga.

Pri podpori dokumentaciji govorimo o orodju. Pri varnostni funkciji govorimo o elementu, katerega napaka lahko neposredno povzroči škodo. Tukaj Uredba o strojih (EU) 2023/1230 potegne zelo jasno mejo. V Prilogi I, del A, so med posebnimi kategorijami navedeni tudi varnostni deli s popolnoma ali delno samospreminjajočim se vedenjem, ki uporabljajo strojno učenje za zagotavljanje varnostnih funkcij, ter stroji s takimi vgrajenimi sistemi glede teh sistemov. To ni polje za samodejno izjavo, da sistem običajno deluje dobro. To je področje, kjer je potrebno ugotavljanje skladnosti s sodelovanjem tretje strani, torej priglašenega organa.

Tudi evropski Akt o umetni inteligenci sledi isti logiki. Če je AI povezan z varnostnim delom proizvoda, ki zahteva tretjeosebno presojo skladnosti, govorimo o sistemu visokega tveganja. Tam niso dovolj marketinške obljube in visoka uspešnost na testnem naboru. Potrebni so upravljanje tveganj skozi celoten življenjski cikel, človeški nadzor, robustnost, kibernetska varnost, jasne omejitve sistema in dokazljivost obnašanja v realnih pogojih.

To je praktično zelo pomembno. Ni ključno, ali ima model 95 ali 99 odstotkov pravilnih zaznav. Ključno je, kaj se zgodi v preostanku. Kaj se zgodi pri umazaniji, drugačni osvetlitvi, vibracijah, neobičajnem materialu, okvari senzorja ali vedenju operaterja, ki ga nihče ni predvidel? Varnostna funkcija ne sme temeljiti na upanju, da bo algoritem večino časa pravilen. Temeljiti mora na dokazljivem varnem ravnanju tudi takrat, ko gre kaj narobe.

Sled odločanja je vrednejša od lepe tabele

Resna ocena tveganja mora biti obnovljiva. Ne samo berljiva, ampak obnovljiva. Čez mesece ali leta mora biti jasno, zakaj je bila neka nevarna situacija ocenjena kot pomembna, zakaj je bila izbrana določena resnost možne škode, zakaj je bila izbrana določena pogostost izpostavljenosti, zakaj je bil izbran ravno ta zaščitni ukrep in zakaj je bilo preostalo tveganje sprejeto kot dopustno.

Če tega ni, je dokument šibak. Tabela pokaže rezultat, ne pokaže pa mišljenja. Pri strojih pa je ravno mišljenje tisto, kar boste morali braniti pri presoji, pri spremembi konstrukcije, pri sporu s kupcem, pri notranjem nadzoru ali po nezgodi. Odgovor, da je tako predlagal AI, ne zdrži. Enako kot ni nikoli zdržal odgovor, da je tako pisalo v starem Excelu.

Zato je najboljši način uporabe AI zelo preprost: uporabite ga tam, kjer lahko okrepi disciplino procesa. Naj opozori na manjkajoče scenarije. Naj zahteva dodatna pojasnila. Naj pomaga zapisati utemeljitve. Naj preveri skladnost med nevarnostjo, nevarno situacijo, nevarnim dogodkom, zaščitnim ukrepom in preostalim tveganjem. Naj bo pomočnik, ki postavlja neprijetna vprašanja.

Ne dovolite pa, da postane stroj za proizvodnjo občutka, da je bilo delo opravljeno samo zato, ker je dokument videti profesionalno. V varnosti strojev je to najdražja iluzija. Lepa tabela je prijetna za pogled. Dober proces pa je tisti, ki človeku dejansko ne dovoli v nevarnost. In to je razlika, ki šteje.

Pogosta vprašanja

Ali lahko umetna inteligenca pri oceni tveganja strojev nadomesti inženirja?

Ne. AI lahko pospeši zbiranje gradiva, urejanje zapiskov in pripravo preglednice, vendar ne nadomesti analize, ki jo zahteva ISO 12100. Model ne opazuje stroja, ne pozna dejanskih nalog operaterja in ne razume omejitev projekta, če mu jih nihče ne vnese.

Ocenjevanje tveganja je proces: določitev omejitev stroja, identifikacija nevarnosti, ocenitev tveganja, vrednotenje tveganja in zmanjšanje tveganja. AI je lahko orodje v tem procesu, vendar ne njegov izvajalec v strokovnem smislu.

Ali je ocena tveganja z uporabo UI lahko skladna s ISO 12100?

Da, vendar le takrat, ko UI podpira že izvedeno analizo, ne pa da jo zgolj posnema. Skladnost s ISO 12100 ne izhaja iz lepe postavitve tabele, temveč iz tega, ali je mogoče rekonstruirati potek sklepanja, ki vodi do projektnih odločitev.

Če se vnosi nanašajo na konkretno izpostavljeno osebo, nalogo, fazo življenjskega cikla stroja, nevarno situacijo in nevarni dogodek ter so uporabljeni varovalni ukrepi preverjeni, je lahko gradivo, pripravljeno s pomočjo UI, uporabno. Samo generiranje besedila ne vzpostavi skladnosti.

Zakaj seznam nevarnosti, povezanih z UI, še ni ocena tveganja?

Saj je seznam nevarnosti šele začetek. Sam zapis tipa mehanska nevarnost, stisnitev, nepremično varovalo ne pojasni, kdo je izpostavljen, med katerim opravilom, kako pogosto pride do dostopa in kaj sproži nevarni dogodek.

V praksi lahko dva stroja istega tipa zahtevata povsem različno zmanjšanje tveganja, če so preurejanja ob menjavi izdelka, odpravljanje zastojev, čiščenje, nastavljanje ali servisni dostop organizirani drugače. Tabela brez konteksta zlahka postane atrapa procesa.

Kdaj AI pri oceni tveganja strojev dejansko pomaga?

Največjo vrednost umetna inteligenca prinaša tam, kjer je treba hitro urediti strokovno znanje, ne pa ga nadomestiti. Dobro se obnese kot uredniška in analitična podpora po zbiranju podatkov s stroja.

  • izdelava predhodnega zemljevida nevarnosti za znan tip stroja,
  • urejanje opažanj iz pregleda, fotografij in zapiskov,
  • zagotavljanje, da se ne izpustijo življenjske faze stroja in tipične naloge,
  • poenotenje jezika dokumentacije po odločitvah, ki jih je sprejela ekipa.
Katere podatke je treba posredovati umetni inteligenci, da bo rezultat smiseln?

Čim bolj splošen je vhodni opis, tem bolj splošen in navidezen je rezultat. Da je UI pri ocenjevanju tveganja strojev smiselna, je treba navesti meje stroja, način uporabe in dejanske interakcije človeka s strojem.

  • vloge izpostavljenih oseb,
  • naloge v vsaki fazi življenjske dobe stroja,
  • režime delovanja, točke dostopa in vire energije,
  • pogostost posegov, odpravljanja zagozditev, preopremljanja in vzdrževanja,
  • obstoječe zaščitne ukrepe ter znane načine obida zaščit.

Pripravljeni na spremembo?

Ustvari račun in v 15 minutah generiraj skladno dokumentacijo.

Začni brezplačno preizkusno obdobje Brez kreditne kartice • 14 dni brezplačno