AI masinate riskihindamises on jõudnud väga kiiresti sinna, kus aastaid valitsesid Excel, kontrollnimekirjad ja projektist projekti kopeeritud read. Piisab masina nime sisestamisest, paarist üldisest lausest ja ekraanile ilmub tabel, mis näeb välja täiesti korrektne: oht, võimalik kahju, kaitsemeetmed, hinnatud risk, jääkrisk. Esmapilgul nagu kõik klapiks. Aga siin on ebamugav tõde: ilus tabel ei ole veel masinate riskihindamine ISO 12100 mõttes. Väärtus ei teki ridade arvust ega tehnilisest sõnastusest. Väärtus tekib sellest, kas otsustusjälg on taastatav ja kas konkreetne projekteerimisotsus on seotud päris masina, päris ülesande ja päris ohuolukorraga.
Just siin jookseb piir dokumendi ja protsessi vahel. Dokument võib välja näha veenev. Protsess peab olema kaitstav. Masinate ohutus ei parane sellepärast, et keegi täitis lahtrid ära. Ohutus paraneb siis, kui insener mõistab, kus inimene masinaga kohtub, mida ta seal teeb, mis võib valesti minna ja kuidas riski vähendamine tegelikult saavutatakse.
AI masinate riskihindamises: uus tööriist, vana viga
Aastaid nägid paljud masinate riskihindamised välja ühtemoodi. Excel, üldine ohtude loetelu, mõned tüüpilised tagajärjed, standardsed kaitsemeetmed ja lõpus kohustuslik riski vähendamine. Dokument oli olemas. Väljad olid täidetud. Värvid olid paigas. Aga liiga sageli puudus see, mida ISO 12100 tegelikult nõuab: reaalne seos ohu, inimese ülesande, masina elutsükli faasi, ohuolukorra ja ohtliku sündmuse vahel.
Kas oht oli tabelisse kantud? Oli. Kas esialgne risk oli hinnatud? Oli. Kas pärast kaitsemeetme lisamist risk langes? Loomulikult langes. Tabel ju pidi selleks olema. Küsimus on mujal. Kas keegi vaatas päriselt, mida operaator teeb ümberseadistuse ajal? Kas keegi sai aru, kuidas ummistuse eemaldamine päriselt käib? Kas keegi analüüsis puhastust, seadistamist, hooldust, käsirežiimi, teenindusjuurdepääsu ja ratsionaalselt prognoositavat väärkasutust? Või oli vaja lihtsalt järgmine rida kinni saada?
Probleem ei olnud kunagi Excel ise. Excel on tööriist. Probleem oli see, kui tööriistast tehti protsessi aseaine. Kirjutati liikuvad osad, muljumine, püsikaitse, tööjuhend, operaatori koolitus ja dokument hakkas välja nägema tuttav, tehniline, usaldusväärne. Aga tuttav veerustruktuur ei tähenda veel, et masinate riskihindamine on tehtud.
Nüüd teeb AI täpselt sama vea kiiremini, puhtamalt ja veenvamalt. See ei loonud probleemi nullist. See võimendab vana viga: dokument aetakse segi protsessiga. Varem kopeeris inimene vana projekti ridu. Nüüd genereerib AI uued read sekunditega. Varem oli nõrk tabel kohmakas ja reetis ennast. Nüüd võib väljund olla sujuv, küps, terminoloogiliselt korrektne ja pealtnäha täielik. Ja just sellepärast on risk suurem. Nõrk analüüs, mis kõlab hästi, on ohtlikum kui nõrk analüüs, mis näeb nõrk välja.
AI masinate riskihindamises ei asenda ISO 12100 metoodikat
ISO 12100 ei kirjelda hästi kõlava dokumendi tootmist. See kirjeldab metoodikat, mille eesmärk on saavutada masina ohutus projekteerimise kaudu, kasutades masinate riskihindamist ja riski vähendamist. See on protsess, mis tugineb teadmisele masina piiridest, kasutusest, riketest, varasematest juhtumitest, inimkäitumisest ja tehnilistest otsustest. Asi ei ole selles, et genereerida üldine ohtude nimekiri. Asi on selles, et mõista, kus inimene masinaga kokku puutub, millise ülesande ajal see juhtub, mis võib vallandada ohtliku sündmuse ja miks valitud lahendus on adekvaatne.
Ohtude loetelu saab teha ka ilma masinat sügavuti tundmata. Konveier? Kaasatõmbamine, kinnijäämine, muljumine. Press? Tööriistatsoon, tööliikumine, jääkenergia. Robot? Kokkupõrge, tsooni sisenemine, programmeerimisrežiim, ootamatu liikumine. Pakendiliin? Ajamid, lindid, silindrid, noad, kuumad elemendid, hooldusalad. Kõike seda saab AI väga kiiresti kirja panna.
Aga mida see tegelikult ütleb? Mitte seda, kes on ohus. Mitte seda, millise ülesande ajal. Mitte seda, kas juurdepääs tekib iga päev, kord nädalas või ainult rikke korral. Mitte seda, kas inimene tegutseb seiskunud masinal, käsirežiimis, jääkenergia olemasolul, avatud kaitsepiirdega, ajasurve all või piiratud nähtavusega. Ja mitte seda, kas valitud kaitsemeede lahendab probleemi või lihtsalt näeb lahtris soliidne välja.
Masinate riskihindamine algab hoopis teisest küsimusest: milline konkreetne inimene, millises elutsükli faasis, millise ülesande käigus ja millistes tingimustes võib sattuda ohuolukorda? Alles siis saab küsida edasi. Mis võib vallandada ohtliku sündmuse? Ootamatu käivitus? Stabiilsuse kaotus? Juurdepääs liikuvatele osadele? Juhtloogika viga? Jääkenergia? Materjali ummistus? Vale seadistus? Nähtavuse puudumine? Üksinda töötamine? Halb juurdepääs? Või täiesti tavaline tegevus, mille projekteerija liigitas ekslikult hoolduseks, kuigi operaator teeb seda viisteist korda vahetuses?
ISO 12100 ei alga ohtude nimekirjast
Üks sagedasemaid vigu on alustada küsimusest, millised ohud masinal on. See kõlab mõistlikult, aga jääb liiga pinnapealseks. Masin ei ole staatiline ohtlike detailide kogu. Masinat tuleb vaadata suhtes inimesega, kes seda transpordib, paigaldab, käivitab, kasutab, reguleerib, puhastab, hooldab, remondib, ümberseadistab, diagnoosib ja kasutusest kõrvaldab.
Oht iseenesest ei kirjelda veel riski. Terav serv on oht. Risk tekib siis, kui keegi võib sellega kokku puutuda. Ajami olemasolu on fakt. Risk sõltub sellest, kes, millal ja miks selle lähedusse satub. Liikuv mehhanism võib tavaolukorras olla täiesti eraldatud, aga muutuda kriitiliseks puhastuse, ummistuse eemaldamise või käsirežiimi katsete ajal.
Sellepärast on parem küsimus mitte millised ohud masinal on, vaid kes, millise ülesande ajal, millises elutsükli faasis ja millisel viisil võib sattuda ohuolukorda. See muudab kogu vaadet. Siis ei analüüsita enam abstraktset masinat, vaid päris tööprotsessi. Ei küsita ainult, kas liikuv osa olemas on. Küsitakse, kas inimesel on põhjus sellele läheneda. Ei küsita ainult, kas ohtlik tsoon eksisteerib. Küsitakse, millal ja miks keegi sinna siseneb. Ei küsita ainult, kas kaitsepiire on paigaldatud. Küsitakse, kas kaitsepiire võimaldab töö teha ilma kaitsest mööda minemata.
Heas masinate riskihindamises ei ela oht, inimese ülesanne, ohtlik sündmus, kaitsemeede ja jääkrisk eraldi kastides. Näha peab olema mõttekäik. Millised on masina piirid? Millistes elutsükli faasides risk tekib? Milliseid tegevusi inimene teeb? Millised keskkonna- ja töötingimused mõjutavad kokkupuudet? Kus tekib ohuolukord? Milline ohtlik sündmus võib järgneda? Millise kahjuni see võib viia? Alles seejärel muutub riski vähendamine sisuliseks.
Mõnikord on lähtepunkt inimese ülesanne, näiteks puhastus, ümberseadistus, reguleerimine või hooldus. Mõnikord on lähtepunkt ohtlik sündmus, näiteks vooliku purunemine, ootamatu käivitus, juhtsüsteemi rike, koorma kukkumine või energia vabanemine. Hea hindamine peab suutma töötada mõlemat pidi. Kui kõik surutakse ühte jäika vormi, jäävad just ebamugavad stsenaariumid märkamata.
AI masinate riskihindamises töötab ainult koos kontekstiga
Kui kasutaja sisestab AI-le käsu koostada riskihindamine pakendamasinale, saab ta suure tõenäosusega vastuse, mis meenutab riskihindamist. Seal on mehaanilised, elektrilised, ergonoomilised ja võib-olla ka termilised ohud. Seal on tüüpilised kaitsemeetmed. Seal on hinnatud jääkrisk. Aga see ei ole konkreetse masina hindamine. See on statistiliselt usutav kirjeldus tüüpilise masina kohta.
Ja nende kahe asja vahel on kuristik. Konkreetsel masinal on konkreetsed piirid, konkreetsed töörežiimid, konkreetsed liikumisjärjestused, konkreetsed ummistuskohad, konkreetsed hooldustegevused, konkreetne paigutus ja konkreetne töökorraldus. AI ei tea, et operaator peab tegelikult ulatuma sügavamale, kui projekteerija arvas. AI ei tea, et juhtpaneel on valel küljel ja inimene jälgib liikumist kohast, mida keegi ei planeerinud. AI ei tea, et raske kaitsepiire jäeti kahe nädala pärast avatuks, sest muidu tootmine ei jooksnud. AI ei tea, et juhendis ette nähtud kaheinimese töö tehakse päriselt üksinda. AI ei tea, et ümberseadistus, mis pidi toimuma harva, toimub tegelikult mitu korda päevas.
See ei tee AI-d kasutuks. See teeb ühe asja väga selgeks: ilma kontekstita ei analüüsi AI masinat, vaid arvab. Ja ohutuses on arvamine elegantne ainult esimese õnnetuseni.
Hea küsimus on rohkem väärt kui automaatne vastus
Hea tööriist ei peaks alustama valmis tulemuse lubamisest. Ta peaks sundima esitama ebamugavaid küsimusi.
- Millised on masina piirid?
- Kes masinat kasutab, puhastab, hooldab ja remondib?
- Millised tegevused toimuvad tavaolukorras ja millised rikke ajal?
- Millised ülesanded nõuavad juurdepääsu ohtlikku tsooni?
- Kas juhendis hoolduseks nimetatud tegevust teeb päriselus operaator?
- Kas kaitsemeede töötab tootmisrütmis või kutsub see esile kaitsest möödamineku?
- Kas riski vähendamine toimub olemuslikult ohutu projekteerimisega, tehnilise kaitsemeetmega või ainult kasutajainfo kaudu?
AI võib aidata neid küsimusi genereerida, kontrollida terviklikkust, osutada võimalikele lünkadele ja aidata põhjendusi sõnastada. Aga AI ei tohiks ilma masina andmeteta nendele küsimustele ise vastata. Muidu ei toimu analüüs. Toimub veenev oletamine.
Otsustusjälg on tähtsam kui ilus tabel
Iga tõsiseltvõetav masinate riskihindamine peab olema taastatav. Mitte ainult loetav, vaid taastatav. Hiljem peab olema arusaadav, miks ohuolukord loeti oluliseks, miks võimaliku kahju raskus hinnati just nii, miks kokkupuute sagedus määrati selliseks, miks valiti konkreetne kaitsemeede ja miks jääkriski peeti vastuvõetavaks.
Kui seda ei ole, muutub dokument raskesti kaitstavaks. Tabel näitab tulemust, aga ei näita mõttekäiku. Auditi ajal, moderniseerimisel, kliendivaidluses, järelevalves või pärast õnnetust ei ole väide AI genereeris nii mingi argument. Sama vähe aitas varem väide Excelis tuli nii välja.
Kui riski vähendati kaitsepiirdega, peab olema selge, mis funktsiooni see täidab, millise juurdepääsu eest kaitseb ja millise ülesandega see seostub. Kui kasutati ohutusfunktsiooni, peab olema arusaadav, millise ohtliku stsenaariumi see katkestab ja millised tehnilised nõuded sellel on. Kui osa riskist jäeti jääkriskina alles, peab olema põhjendatud, miks seda ei olnud mõistlikult võimalik edasi vähendada olemuslikult ohutu projekteerimise või tehniliste kaitsemeetmetega.
Siin võib AI olla kas kvaliteedi võimendi või segaduse võimendi. Kui protsess on korrastatud, aitab AI põhjendusi ühtlustada, leida vastuolusid ja tuvastada puuduvaid seoseid. Kui protsessi ei ole, toodab AI lihtsalt parema stiiliga udu.
Näide: kahvelandur pikilõikuril
Võtame lihtsa, aga väga tüüpilise näite tootmishallist. Pikilõikur (slitter) kasutab kahvelandurit lindi asendi tuvastamiseks. Materjali laiuse muutmisel peab operaator andurit ümber seadistama. Probleem on selles, et reguleerimiskoht asub ohtlikus tsoonis. Anduri nihutamiseks tuleb minna alale, kus on liikuvad rullid, võllid, kaasatõmbekohad, pinges lint või lõikemehhanismi osad.
Mida teeb AI, kui talle anda üldine ülesanne? Tõenäoliselt pakub see midagi täiesti tuttavat: kasutada LOTO protseduuri, koolitada operaatorit, tähistada ohtlik tsoon, lisada juhend, rakendada kaitsepiirdeid ja hädaseiskamist. Keeleliselt korrektne? Jah. Insenertehniliselt piisav? Mitte tingimata.
Õige küsimus ei ole, kuidas kirjeldada ohtlikku tsooni sisenemise riski. Õige küsimus on, miks peab operaator üldse sisenema ohtlikku tsooni, et teha normaalset ümberseadistust. Kui lindi laiuse muutmine on tavapärane tootmistegevus, ei saa seda käsitleda erakorralise hooldusena. Siis ei piisa lahtrisse kirjutatud LOTO-st. Tuleb kontrollida, kas see on reaalselt teostatav iga ümberseadistuse ajal, kas masin peab olema täielikult seisatud, kas anduri seadistus nõuab lindi liikumise jälgimist, kas pärast seadistust on vaja prooviliikumist ja kas olemasolev kaitsepiire sunnib töötajat kaitsest mööda minema.
Siin tuleb mängu olemuslikult ohutu projekteerimine. Kas kahvelanduri saab viia juhikule, mida saab reguleerida väljastpoolt ohtlikku tsooni? Kas kasutada mehaanilist skaalat, retseptipõhist positsioneerimist või teist tüüpi tuvastust, mis ei nõua käe viimist ohtlikku piirkonda? Kas muuta anduri kinnitust, asukohta või kogu ümberseadistuse järjestust? Alles siis, kui juurdepääsu vajadust ei saa projekteerimisega kõrvaldada, on mõistlik liikuda järgmiste sammude juurde: blokeeringuga ja lukustusega kaitsepiire, seadistusrežiim, piiratud kiirus, hoidnupuga juhtimine, lubamisseade, ohutu seiskamine, LOTO, juhend ja koolitus.
Järjekord on siin kriitiline. ISO 12100 ei alga koolitusega. Kõigepealt tuleb küsida, kas oht saab kõrvaldada või riski vähendada projekteerimise kaudu. Kui AI annab kohe tüüpilise kaitsemeetmete paketi, võib ta kirjeldada riski väga elegantselt, kuid jätta lahendamata selle tegeliku põhjuse. Dokument näeb hea välja. Inimene läheb endiselt sinna, kuhu ta ei peaks minema.
Kui AI puudutab ohutusfunktsiooni, muutub mäng
Siin tuleb teha selge vahe kahe täiesti erineva kasutusviisi vahel. Esimene on AI kui inseneri tööriist: küsimuste genereerimine, terviklikkuse kontroll, põhjenduste toimetamine, vastuolude otsimine. See võib olla väga kasulik. Teine on AI või masinõppe kasutamine masinas endas, eriti siis, kui süsteem peab täitma ohutusfunktsiooni. Siin ei ole enam tegemist mugava kontoritööriistaga. Siin on kaalul masina tegelik käitumine ohtlikus olukorras.
EL masinamäärus 2023/1230 paneb tootjale kohustuse teha masinate riskihindamine, määrata kindlaks kohaldatavad tervise- ja ohutusnõuded ning projekteerida masin nii, et ohud kõrvaldatakse või riskid minimeeritakse. See kohustus ei kuulu AI-le. See jääb tootjale, projekteerijale, integraatorile ja sellele, kes annab masina kasutusse või toob selle turule koos CE-märgisega.
Kui süsteemil on ise muutuv käitumine ja see tagab ohutusfunktsiooni, siis on olukord regulatiivselt palju rangem. Selliste lahenduste puhul ei piisa väitest, et algoritm töötab tavaliselt hästi. Vajalik on vastavushindamine, tehniline dokumentatsioon, tõendatav prognoositavus, piisav töökindlus, küberkindlus, inimjärelevalve ja vajaduse korral teavitatud asutuse osalus. See ei ole innovatsioonivastasus. See on elementaarne ettevaatus seal, kus vea hind võib olla raske vigastus või surm.
Sama loogikat tugevdab EL AI-määrus. Kui AI on seotud toote ohutusega viisil, mis toob kaasa kolmanda osapoole vastavushindamise, võib tegemist olla kõrge riskiga süsteemiga. Sellisel juhul ei huvita kedagi ainult täpsusprotsent esitlusslaidil. Huvitab see, mis juhtub siis, kui sisendandmed muutuvad, valgustus on halb, andur määrdub, temperatuur kõigub, operaator käitub ettenägematult või süsteem satub olukorda, mida treeningu ajal ei olnud.
Masinates ei piisa sellest, et mudel annab häid tulemusi enamiku ajast. Kriitiline on see ülejäänud osa. Mis juhtub siis, kui inimene jäetakse tuvastamata? Mis juhtub siis, kui ohutusfunktsioon aktiveerub liiga hilja või ei aktiveeru üldse? Mis juhtub siis, kui süsteem käitub pärast muudatusi teisiti kui kasutuselevõtu hetkel? Need ei ole filosoofilised küsimused. Need on väga praktilised inseneriküsimused.
Kokkuvõte
AI võib olla masinate riskihindamises väga tugev assistent. Ta võib aidata struktureerida infot, märgata lünki, pakkuda kontrollküsimusi, võrrelda stsenaariume ja teha dokumentatsiooni arusaadavamaks. Aga AI ei tohi muutuda vastutuse autoriks. Vastutus jääb inimesele ja organisatsioonile, kes masina projekteerib, integreerib, hindab ja kasutusse annab.
Kui AI tugevdab protsessi, on sellest reaalne kasu. Kui AI asendab protsessi, tekib lihtsalt paremini vormindatud näilisus. Ja see on masinate ohutuses halb tehing. Ilus tabel ei peata rulli, ei peata võlli ja ei katkesta ohtlikku liikumist. Ohu vähendab ainult selline otsus, mille taga on päris masina mõistmine, taastatav otsustusjälg ja distsiplineeritud töö ISO 12100 järgi.