AI u procjeni rizika strojeva: alat ili opasna iluzija?
AI u procjeni rizika strojeva ušao je ravno u prostor u kojem su godinama vladali Excel, kontrolne liste i dokumenti kopirani iz projekta u projekt. Dovoljno je upisati naziv stroja, dodati nekoliko općih informacija i za nekoliko sekundi dobije se tablica koja izgleda ozbiljno: opasnosti, moguće posljedice, zaštitne mjere, razine rizika, preostali rizik. Na prvi pogled sve sjedi. Samo postoji jedan problem. Lijepo složena tablica još nije procjena rizika prema ISO 12100.
Procjena rizika ne svodi se na generiranje popisa opasnosti. Ne svodi se ni na punjenje ćelija tehnički uvjerljivim rečenicama. Vrijednost dokumenta ne dolazi iz broja redaka, boja ni stručnog jezika. Vrijednost dolazi iz toga može li se rekonstruirati način razmišljanja koji je doveo do konkretnih projektnih odluka. Tu počinje stvarna odgovornost.
Tu je i glavna zamka. AI ne stvara problem iz ničega. On pojačava stari problem koji je u procjeni rizika strojeva prisutan godinama: zamjenu procesa dokumentom. Nekad se to radilo ručno u Excelu. Danas se radi brže, glađe i uvjerljivije.
AI u procjeni rizika strojeva ne znači procjenu rizika
Godinama su mnoge procjene rizika strojeva izgledale gotovo isto. Tablica. Popis opasnosti. Nekoliko općih posljedica. Standardne zaštitne mjere. Na kraju obavezno smanjenje rizika. Dokument postoji, stupci su popunjeni, boje su uredne. Ali često je nedostajao najvažniji dio logike iz ISO 12100: stvarna veza između opasnosti, zadatka čovjeka, faze života stroja, opasne situacije i opasnog događaja.
Je li opasnost upisana? Jest. Je li početni rizik procijenjen? Jest. Je li nakon dodane zaštitne mjere rizik pao? Naravno da jest. Tablica je to i očekivala.
Ali je li netko stvarno provjerio što operater radi pri podešavanju? Kako izgleda uklanjanje zastoja? Tko čisti stroj, tko ga namješta, tko ga servisira, tko radi u ručnom načinu rada? Je li zaštitna mjera rezultat analize ili samo način da se zatvori redak?
To je neugodno pitanje. I često je odgovor neugodan.
Problem nikada nije bio u Excelu. Excel je samo alat. Problem je bio u tome što je od alata bilo prejednostavno napraviti kulisu procesa. Dovoljno je bilo upisati pokretni dijelovi, prignječenje, fiksni štitnik, uputa za radno mjesto, osposobljavanje operatera i dokument je odmah djelovao tehnički, sigurno i ozbiljno. Danas AI omogućuje istu pogrešku, samo s boljom ambalažom.
Uredba (EU) 2023/1230 također ne traži dokument koji izgleda kao procjena rizika. Traži provedenu procjenu rizika radi utvrđivanja primjenjivih bitnih zdravstvenih i sigurnosnih zahtjeva te mjera potrebnih za smanjenje rizika. U praksi to znači prolazak kroz ograničenja stroja, namjeravanu uporabu, racionalno predvidivu pogrešnu uporabu, identifikaciju opasnosti, procjenu i vrednovanje rizika te smanjenje rizika. AI tu može biti koristan. Ali samo ako radi na procesu, a ne umjesto procesa.
ISO 12100 ne počinje od popisa opasnosti
Jedna od najčešćih pogrešaka zvuči razumno, a vodi u slijepu ulicu. Pitanje glasi: koje opasnosti ima stroj? Na prvu djeluje logično. Stroj ima pogone, pa postoje mehaničke opasnosti. Ima napajanje, pa postoje električne opasnosti. Ima pneumatski sustav, pa postoji energija stlačenog zraka. Ima vruće dijelove, pa postoji rizik od opeklina. I tablica raste.
Samo što to još uvijek nije procjena rizika. To je katalog mogućih opasnosti. Koristan, ali nedovoljan.
ISO 12100 ne traži da stroj gledamo kao statičan skup opasnih elemenata. Traži da ga gledamo u odnosu na čovjeka koji će ga transportirati, montirati, puštati u rad, koristiti, podešavati, čistiti, održavati, popravljati, dijagnosticirati i povlačiti iz uporabe. Opasnost sama po sebi još ne opisuje rizik. Rizik se pojavljuje kada konkretna osoba, tijekom konkretnog zadatka, u konkretnoj fazi života stroja, može završiti u opasnoj situaciji.
Pitanje koje mijenja cijelu analizu
Bolje pitanje nije koje opasnosti stroj ima, nego ovo: tko, tijekom kojeg zadatka, u kojoj fazi života stroja i pod kojim uvjetima može završiti u opasnoj situaciji?
To mijenja sve. Tada više ne analiziramo apstraktni stroj, nego stvarni radni proces. Ne pitamo samo postoji li pokretni dio. Pitamo ima li čovjek razlog da mu priđe. Ne pitamo samo postoji li opasna zona. Pitamo kada i zašto netko u nju ulazi. Ne pitamo samo postoji li štitnik. Pitamo omogućuje li taj štitnik izvršenje zadatka bez zaobilaženja zaštite.
U slabim procjenama rizika opasnost živi odvojeno, zadatak čovjeka odvojeno, opasni događaj odvojeno, zaštitne mjere odvojeno, a preostali rizik nekako padne usput. U dobrim procjenama vidi se logika: koja su ograničenja stroja, u kojim fazama života nastaju opasnosti, koje zadatke čovjek obavlja, koji uvjeti rada i okoline su važni, gdje nastaje opasna situacija, koji opasni događaj može nastupiti i do kakve štete može dovesti.
Važno je i ovo: ne mora svaki scenarij stati u jedan kruti obrazac zadatak pa opasna situacija pa opasni događaj pa zaštitna mjera. Nekad analiza kreće od zadatka, primjerice čišćenja, podešavanja ili uklanjanja zastoja. Nekad kreće od događaja, poput neočekivanog pokretanja, gubitka stabilnosti, kvara upravljanja, pada tereta ili oslobađanja energije. Dobra procjena rizika mora podnijeti oba smjera razmišljanja. Stroj i stvarni rad ne ponašaju se kao uredan predložak.
AI u procjeni rizika strojeva: pomoćnik, ne autor odgovornosti
Tu dolazimo do granice koju ne vrijedi uljepšavati. AI može biti vrlo dobar pomoćnik inženjeru. Može uočiti rupe, složiti informacije, predložiti kontrolna pitanja, upozoriti na tipične scenarije, usporediti opise i ubrzati izradu dokumentacije. Ali AI ne smije postati autor odgovornosti.
Odgovornost ne ostaje u modelu. Ostaje na proizvođaču, projektantu, integratoru, inženjerskom timu, osobi koja potpisuje dokumentaciju i subjektu koji stroj stavlja na tržište ili u uporabu. Oni moraju dokazati da procjena rizika nije samo tekst, nego rezultat stvarnog procesa.
AI može predložiti blokirajući štitnik sa zaključavanjem. Ali netko mora objasniti zašto baš takav, za koji pristup, za koje vrijeme zaustavljanja, za koju sigurnosnu funkciju i uz koju učestalost ulazaka. AI može predložiti osposobljavanje operatera. Ali netko mora pošteno procijeniti je li osposobljavanje uopće razumna zaštitna mjera ili je problem zapravo projekt koji čovjeka svakodnevno tjera blizu opasnosti. AI može predložiti LOTO. Ali netko mora pitati radi li se o mjesečnom zahvatu održavanja ili o radnji koju operater obavlja nekoliko puta u smjeni.
Što AI ne zna dok mu to netko ne kaže
- ne zna da operater mora gurnuti ruku dublje nego što je projektant predvidio
- ne zna da je upravljačka ploča na pogrešnoj strani pa čovjek promatra stroj s mjesta koje nitko nije analizirao
- ne zna da je štitnik težak pa je nakon dva tjedna ostao trajno otvoren
- ne zna da se čišćenje službeno vodi kao servis, a u stvarnosti ga operater radi više puta dnevno
- ne zna da kvar koji je na papiru rijedak za održavanje znači sasvim običan ponedjeljak
Zato je AI bez konteksta opasno uvjerljiv. Ne zato što je uvijek netočan. Često je sasvim dobar u općim stvarima. Problem je što se procjena rizika ne lomi na općim stvarima. Lomi se u detalju. U tom jednom pristupu, toj jednoj radnji, tom jednom načinu rada, toj jednoj situaciji u kojoj čovjek radi malo drukčije od onoga što piše u dokumentaciji.
Prompt nije metodologija prema ISO 12100
Čim AI počne davati pristojne odgovore, pojavljuje se nova iluzija: treba samo napisati bolji prompt. Uključi ISO 12100. Obuhvati cijeli životni ciklus stroja. Identificiraj mehaničke, električne, toplinske, ergonomske i upravljačke opasnosti. Dodaj početni rizik, zaštitne mjere i preostali rizik.
Može li rezultat biti bolji? Može. Je li to metodologija? Nije.
I najbolji prompt ne dodaje činjenice koje nisu prikupljene na stroju. On ih može pretpostaviti, uprosječiti ili elegantno nadopuniti. Upravo je to problem. U procjeni rizika često su presudni detalji koji nisu tipični: pristup koji se ne vidi s upravljačkog mjesta, potreba da operater istodobno prati materijal i aktivira komandu, zaostalo gibanje nakon zaustavljanja, ručno izvlačenje zaglavljenog materijala, rad u vlazi, prašini ili slaboj vidljivosti, nesklad između upute i stvarne prakse u pogonu.
Odakle AI to zna? Ne zna. Ne iz naziva stroja. Ne iz općeg opisa. Ne iz profesionalno sročenog prompta.
Zato najveća vrijednost AI nije u automatskim odgovorima, nego u pitanjima koja tjera inženjera da ih postavi. Jesi li obuhvatio čišćenje? Ulazi li operater u zonu gibanja pri uklanjanju zastoja? Je li radnja stvarno servisna ili je dio normalne proizvodnje? Smanjuješ li rizik inherentno sigurnim projektiranjem, tehničkim zaštitnim mjerama ili ga samo prebacuješ u uputu za uporabu?
Trag odlučivanja važniji je od lijepe tablice
Svaka ozbiljna procjena rizika mora se moći rekonstruirati. Ne samo pročitati. Rekonstruirati.
To znači da i nakon nekoliko mjeseci ili godina mora biti jasno zašto je određeni rizik ocijenjen upravo tako, zašto je neka opasna situacija ocijenjena važnom, zašto je usvojena određena težina moguće štete, zašto je prihvaćena ta učestalost izloženosti, zašto je odabrana baš ta zaštitna mjera i zašto je preostali rizik ocijenjen prihvatljivim.
Bez toga dokument je slab, čak i kad izgleda profesionalno. Tablica pokazuje rezultat, ali ne pokazuje razmišljanje. A upravo je razmišljanje ključno kad nakon incidenta, revizije, modernizacije ili spora s kupcem netko postavi kratko pitanje: zašto baš tako?
Tada odgovor da je to tako generirao AI ne vrijedi ništa. Jednako kao što nekad nije vrijedilo ni objašnjenje da je tako ispalo u Excelu.
Treba pokazati trag odlučivanja. Ako je rizik smanjen štitnikom, mora biti jasno koju funkciju taj štitnik ima, protiv kojeg pristupa štiti i koji zadatak čovjeka uzima u obzir. Ako je primijenjena sigurnosna funkcija, mora biti jasno koji scenarij prekida i koje tehničke zahtjeve mora zadovoljiti. Ako je ostavljen preostali rizik, mora biti jasno zašto ga nije bilo razumno dodatno smanjiti projektom ili zaštitnim mjerama.
Bez tog traga ostaje samo dokumentacijska magla. Lijepo napisana, ali i dalje magla.
Primjer iz pogona: viljuškasti senzor na stroju za uzdužno rezanje trake
Uzmimo jednostavan primjer iz stvarnog života. Na stroju za uzdužno rezanje trake viljuškasti senzor prati položaj trake. Pri promjeni širine materijala operater mora pomaknuti senzor. Problem je u tome što se podešavanje nalazi u opasnoj zoni. Da bi napravio uobičajeno preuređenje stroja, čovjek mora ući među pokretne dijelove, valjke, točke uvlačenja, napetu traku ili elemente sustava rezanja.
Što će AI često napraviti ako dobije općenit prompt? Predložit će paket koji zvuči razumno: LOTO, osposobljavanje operatera, označavanje opasne zone, štitnike, hitno zaustavljanje, uputu za podešavanje. Sve uredno. Sve poznato. Sve nedovoljno.
Jer pravo pitanje nije kako opisati ulazak u zonu opasnosti. Pravo pitanje glasi: zašto operater uopće mora ulaziti u opasnu zonu da bi obavio normalno preuređenje stroja?
Tu se odvaja punjenje tablice od procjene rizika. Ako je promjena širine trake uobičajena i ponavljajuća radnja, onda je ne smijemo glumiti kao izniman servisni zahvat. Nije dovoljno upisati LOTO i proglasiti problem riješenim. Treba provjeriti ima li ta mjera smisla u stvarnom ciklusu rada. Hoće li je itko provoditi pri svakom preuređenju? Mora li stroj tada biti potpuno zaustavljen? Mora li operater vidjeti položaj trake tijekom namještanja? Treba li nakon pomicanja senzora probni hod? Potiče li sadašnje rješenje zaobilaženje zaštite?
Možda je pravi odgovor projektna promjena. Možda se senzor treba pomicati izvana, s pristupačne vodilice izvan opasne zone. Možda treba mehaničku skalu ili pozicioniranje po recepturi. Možda treba drukčiji način detekcije koji uklanja potrebu za ručnim ulaskom u opasnu zonu. Tek ako se potreba za pristupom ne može ukloniti projektom, dolaze na red dodatne zaštitne mjere.
Redoslijed je presudan. ISO 12100 prvo pita može li se opasnost ukloniti ili smanjiti inherentno sigurnim projektiranjem. Tek nakon toga razmatra tehničke zaštitne mjere. Tek na kraju dolaze informacije za korisnika, upozorenja, upute, osposobljavanje ili osobna zaštitna oprema.
U mnogim tablicama taj redoslijed postoji samo na papiru. U stvarnosti se odmah upiše osposobljavanje, LOTO i upozorenje, a rizik poslušno padne u zadnjem stupcu. Na stroju se pritom ne promijeni ništa.
AI u procjeni rizika strojeva: gdje stvarno donosi vrijednost
Ako se njegova uloga dobro postavi, AI može biti koristan i vrlo praktičan alat. Ne kao tvorac procjene, nego kao pojačivač discipline procesa.
- može provjeravati jesu li obuhvaćene sve faze života stroja
- može generirati kontrolna pitanja za čišćenje, podešavanje, održavanje i uklanjanje zastoja
- može upozoravati na nedosljednosti između opasnosti, zaštitne mjere i preostalog rizika
- može pomoći u standardizaciji jezika i strukture dokumentacije
- može olakšati pripremu obrazloženja, ali samo ako su tehničke odluke već donesene
- može služiti kao dodatna provjera da inženjerski tim nije preskočio očit, ali neugodan scenarij
To je bitna razlika. Pristup AI, napravi mi procjenu rizika proizvodi dokument. Pristup provedimo procjenu rizika, a AI iskoristimo da provjeri rupe i sredi obrazloženja jača proces. U sigurnosti strojeva proces je srce posla, a dokument samo njegov trag.
AI u sigurnosnoj funkciji je potpuno druga razina
Treba vrlo jasno razdvojiti dvije stvari. Prva je AI kao alat koji pomaže inženjeru u procjeni rizika. Druga je AI ili strojno učenje ugrađeno u sam stroj, osobito ako takav sustav treba ostvarivati sigurnosnu funkciju. Tu prestaju lake priče i počinje ozbiljna regulativa.
Uredba (EU) 2023/1230 izričito traži da proizvođač provede procjenu rizika i na temelju nje projektira i proizvede stroj tako da ukloni opasnosti ili smanji rizike. To nije obveza alata, nego proizvođača. Ujedno posebno izdvaja sigurnosne komponente i sustave sa samozmjenjivim ponašanjem koji ostvaruju sigurnosne funkcije. Razlog je jednostavan: ovisnost o podacima, neprozirnost, autonomija i povezivost mogu povećati i vjerojatnost i težinu štete.
To zato više nije pitanje uredne tablice. To je područje ocjenjivanja sukladnosti uz sudjelovanje treće strane, odnosno prijavljenog tijela, tehničke dokumentacije, dokazivanja ponašanja sustava, robusnosti, ograničenja, nadzora čovjeka i obrane rješenja u stvarnim uvjetima rada.
Akt o umjetnoj inteligenciji dodatno pojačava istu logiku. Sustavi AI povezani sa sigurnosnim komponentama proizvoda obuhvaćenih usklađenim zakonodavstvom Unije mogu ući u kategoriju visokog rizika. A za sustave visokog rizika ne traži se lijepa prezentacija i dobra statistika na ispitnom skupu podataka. Traži se trajni sustav upravljanja rizicima kroz cijeli životni ciklus, odgovarajuća točnost, robusnost, kibernetička sigurnost i učinkovit nadzor čovjeka.
To znači vrlo konkretna pitanja. Što se događa kad model pogriješi? Što kad su ulazni podaci drukčiji od onih iz testiranja? Što kad se promijene svjetlo, prašina, vibracije, materijal ili ponašanje operatera? Što kad sustav detektira pogrešno, prekasno ili uopće ne detektira? U sigurnosti strojeva problem nikad nije prosjek. Problem je onaj postotak u kojem stvari krenu krivo.
Zato su opasne dvije iluzije. Prva: AI je generirao dokument pa imamo procjenu rizika. Druga: AI dobro radi na demonstraciji pa može preuzeti sigurnosnu funkciju. Obje zvuče moderno. Obje mogu završiti vrlo starim ishodom: stvarnom ozljedom i vrlo lošim pitanjima nakon nje.
Zaključak
AI može biti izvrstan pomoćnik. Može ubrzati rad, poboljšati konzistentnost i natjerati tim da si postavi bolja pitanja. Ali ne može zamijeniti obilazak stroja, razgovor s konstruktorom, promatranje operatera, razumijevanje opasne situacije i opasnog događaja, niti odluku o tome koja je zaštitna mjera stvarno primjerena.
Ako nema konteksta, AI ne analizira. Pogađa. Ako nema procesa, AI ne jača procjenu rizika. Samo proizvodi uvjerljiviji privid. A u sigurnosti strojeva privid traje točno do trenutka kad se nešto dogodi.
Zato je pravilo jednostavno. Ne tražite od AI da zamijeni inženjersko razmišljanje. Iskoristite ga da to razmišljanje učini potpunijim, dosljednijim i bolje dokumentiranim. Sve ostalo je samo lijepo uređena tablica. A lijepo uređena tablica još nikada sama po sebi nije učinila stroj sigurnim.