Tehisintellekt masinate riskihindamises
TL;DR
  • AI võib kiiresti luua usutava tabeli, kuid ohtude loetelu ei ole veel ISO 12100 järgi tehtud riskihindamine.
  • Pädev hindamine peab siduma ohu konkreetse inimese, tööülesande, masina elutsükli faasi, ohuolukorra ja ohtliku sündmusega.
  • Suurim oht on ajada dokument segi protsessiga: AI teeb kopeeritud ja pealiskaudse analüüsi lihtsalt kiiremaks ja veenvamaks.
  • Masina ohutus ei parane täidetud lahtritest, vaid sellest, et insener mõistab päris kasutust, kõrvalekaldeid ja riski vähendamise loogikat.
  • AI on kasulik abivahend konkreetse masina, operaatori ja kasutusandmete analüüsis, kuid ei asenda inseneri vastutust ega otsuseid.

AI masinate riskihindamises on jõudnud väga kiiresti sinna, kus aastaid valitsesid Excel, kontrollnimekirjad ja projektist projekti kopeeritud read. Piisab masina nime sisestamisest, paarist üldisest lausest ja ekraanile ilmub tabel, mis näeb välja täiesti korrektne: oht, võimalik kahju, kaitsemeetmed, hinnatud risk, jääkrisk. Esmapilgul nagu kõik klapiks. Aga siin on ebamugav tõde: ilus tabel ei ole veel masinate riskihindamine ISO 12100 mõttes. Väärtus ei teki ridade arvust ega tehnilisest sõnastusest. Väärtus tekib sellest, kas otsustusjälg on taastatav ja kas konkreetne projekteerimisotsus on seotud päris masina, päris ülesande ja päris ohuolukorraga.

Just siin jookseb piir dokumendi ja protsessi vahel. Dokument võib välja näha veenev. Protsess peab olema kaitstav. Masinate ohutus ei parane sellepärast, et keegi täitis lahtrid ära. Ohutus paraneb siis, kui insener mõistab, kus inimene masinaga kohtub, mida ta seal teeb, mis võib valesti minna ja kuidas riski vähendamine tegelikult saavutatakse.

AI masinate riskihindamises: uus tööriist, vana viga

Aastaid nägid paljud masinate riskihindamised välja ühtemoodi. Excel, üldine ohtude loetelu, mõned tüüpilised tagajärjed, standardsed kaitsemeetmed ja lõpus kohustuslik riski vähendamine. Dokument oli olemas. Väljad olid täidetud. Värvid olid paigas. Aga liiga sageli puudus see, mida ISO 12100 tegelikult nõuab: reaalne seos ohu, inimese ülesande, masina elutsükli faasi, ohuolukorra ja ohtliku sündmuse vahel.

Kas oht oli tabelisse kantud? Oli. Kas esialgne risk oli hinnatud? Oli. Kas pärast kaitsemeetme lisamist risk langes? Loomulikult langes. Tabel ju pidi selleks olema. Küsimus on mujal. Kas keegi vaatas päriselt, mida operaator teeb ümberseadistuse ajal? Kas keegi sai aru, kuidas ummistuse eemaldamine päriselt käib? Kas keegi analüüsis puhastust, seadistamist, hooldust, käsirežiimi, teenindusjuurdepääsu ja ratsionaalselt prognoositavat väärkasutust? Või oli vaja lihtsalt järgmine rida kinni saada?

Probleem ei olnud kunagi Excel ise. Excel on tööriist. Probleem oli see, kui tööriistast tehti protsessi aseaine. Kirjutati liikuvad osad, muljumine, püsikaitse, tööjuhend, operaatori koolitus ja dokument hakkas välja nägema tuttav, tehniline, usaldusväärne. Aga tuttav veerustruktuur ei tähenda veel, et masinate riskihindamine on tehtud.

Nüüd teeb AI täpselt sama vea kiiremini, puhtamalt ja veenvamalt. See ei loonud probleemi nullist. See võimendab vana viga: dokument aetakse segi protsessiga. Varem kopeeris inimene vana projekti ridu. Nüüd genereerib AI uued read sekunditega. Varem oli nõrk tabel kohmakas ja reetis ennast. Nüüd võib väljund olla sujuv, küps, terminoloogiliselt korrektne ja pealtnäha täielik. Ja just sellepärast on risk suurem. Nõrk analüüs, mis kõlab hästi, on ohtlikum kui nõrk analüüs, mis näeb nõrk välja.

AI masinate riskihindamises ei asenda ISO 12100 metoodikat

ISO 12100 ei kirjelda hästi kõlava dokumendi tootmist. See kirjeldab metoodikat, mille eesmärk on saavutada masina ohutus projekteerimise kaudu, kasutades masinate riskihindamist ja riski vähendamist. See on protsess, mis tugineb teadmisele masina piiridest, kasutusest, riketest, varasematest juhtumitest, inimkäitumisest ja tehnilistest otsustest. Asi ei ole selles, et genereerida üldine ohtude nimekiri. Asi on selles, et mõista, kus inimene masinaga kokku puutub, millise ülesande ajal see juhtub, mis võib vallandada ohtliku sündmuse ja miks valitud lahendus on adekvaatne.

Ohtude loetelu saab teha ka ilma masinat sügavuti tundmata. Konveier? Kaasatõmbamine, kinnijäämine, muljumine. Press? Tööriistatsoon, tööliikumine, jääkenergia. Robot? Kokkupõrge, tsooni sisenemine, programmeerimisrežiim, ootamatu liikumine. Pakendiliin? Ajamid, lindid, silindrid, noad, kuumad elemendid, hooldusalad. Kõike seda saab AI väga kiiresti kirja panna.

Aga mida see tegelikult ütleb? Mitte seda, kes on ohus. Mitte seda, millise ülesande ajal. Mitte seda, kas juurdepääs tekib iga päev, kord nädalas või ainult rikke korral. Mitte seda, kas inimene tegutseb seiskunud masinal, käsirežiimis, jääkenergia olemasolul, avatud kaitsepiirdega, ajasurve all või piiratud nähtavusega. Ja mitte seda, kas valitud kaitsemeede lahendab probleemi või lihtsalt näeb lahtris soliidne välja.

Masinate riskihindamine algab hoopis teisest küsimusest: milline konkreetne inimene, millises elutsükli faasis, millise ülesande käigus ja millistes tingimustes võib sattuda ohuolukorda? Alles siis saab küsida edasi. Mis võib vallandada ohtliku sündmuse? Ootamatu käivitus? Stabiilsuse kaotus? Juurdepääs liikuvatele osadele? Juhtloogika viga? Jääkenergia? Materjali ummistus? Vale seadistus? Nähtavuse puudumine? Üksinda töötamine? Halb juurdepääs? Või täiesti tavaline tegevus, mille projekteerija liigitas ekslikult hoolduseks, kuigi operaator teeb seda viisteist korda vahetuses?

ISO 12100 ei alga ohtude nimekirjast

Üks sagedasemaid vigu on alustada küsimusest, millised ohud masinal on. See kõlab mõistlikult, aga jääb liiga pinnapealseks. Masin ei ole staatiline ohtlike detailide kogu. Masinat tuleb vaadata suhtes inimesega, kes seda transpordib, paigaldab, käivitab, kasutab, reguleerib, puhastab, hooldab, remondib, ümberseadistab, diagnoosib ja kasutusest kõrvaldab.

Oht iseenesest ei kirjelda veel riski. Terav serv on oht. Risk tekib siis, kui keegi võib sellega kokku puutuda. Ajami olemasolu on fakt. Risk sõltub sellest, kes, millal ja miks selle lähedusse satub. Liikuv mehhanism võib tavaolukorras olla täiesti eraldatud, aga muutuda kriitiliseks puhastuse, ummistuse eemaldamise või käsirežiimi katsete ajal.

Sellepärast on parem küsimus mitte millised ohud masinal on, vaid kes, millise ülesande ajal, millises elutsükli faasis ja millisel viisil võib sattuda ohuolukorda. See muudab kogu vaadet. Siis ei analüüsita enam abstraktset masinat, vaid päris tööprotsessi. Ei küsita ainult, kas liikuv osa olemas on. Küsitakse, kas inimesel on põhjus sellele läheneda. Ei küsita ainult, kas ohtlik tsoon eksisteerib. Küsitakse, millal ja miks keegi sinna siseneb. Ei küsita ainult, kas kaitsepiire on paigaldatud. Küsitakse, kas kaitsepiire võimaldab töö teha ilma kaitsest mööda minemata.

Heas masinate riskihindamises ei ela oht, inimese ülesanne, ohtlik sündmus, kaitsemeede ja jääkrisk eraldi kastides. Näha peab olema mõttekäik. Millised on masina piirid? Millistes elutsükli faasides risk tekib? Milliseid tegevusi inimene teeb? Millised keskkonna- ja töötingimused mõjutavad kokkupuudet? Kus tekib ohuolukord? Milline ohtlik sündmus võib järgneda? Millise kahjuni see võib viia? Alles seejärel muutub riski vähendamine sisuliseks.

Mõnikord on lähtepunkt inimese ülesanne, näiteks puhastus, ümberseadistus, reguleerimine või hooldus. Mõnikord on lähtepunkt ohtlik sündmus, näiteks vooliku purunemine, ootamatu käivitus, juhtsüsteemi rike, koorma kukkumine või energia vabanemine. Hea hindamine peab suutma töötada mõlemat pidi. Kui kõik surutakse ühte jäika vormi, jäävad just ebamugavad stsenaariumid märkamata.

AI masinate riskihindamises töötab ainult koos kontekstiga

Kui kasutaja sisestab AI-le käsu koostada riskihindamine pakendamasinale, saab ta suure tõenäosusega vastuse, mis meenutab riskihindamist. Seal on mehaanilised, elektrilised, ergonoomilised ja võib-olla ka termilised ohud. Seal on tüüpilised kaitsemeetmed. Seal on hinnatud jääkrisk. Aga see ei ole konkreetse masina hindamine. See on statistiliselt usutav kirjeldus tüüpilise masina kohta.

Ja nende kahe asja vahel on kuristik. Konkreetsel masinal on konkreetsed piirid, konkreetsed töörežiimid, konkreetsed liikumisjärjestused, konkreetsed ummistuskohad, konkreetsed hooldustegevused, konkreetne paigutus ja konkreetne töökorraldus. AI ei tea, et operaator peab tegelikult ulatuma sügavamale, kui projekteerija arvas. AI ei tea, et juhtpaneel on valel küljel ja inimene jälgib liikumist kohast, mida keegi ei planeerinud. AI ei tea, et raske kaitsepiire jäeti kahe nädala pärast avatuks, sest muidu tootmine ei jooksnud. AI ei tea, et juhendis ette nähtud kaheinimese töö tehakse päriselt üksinda. AI ei tea, et ümberseadistus, mis pidi toimuma harva, toimub tegelikult mitu korda päevas.

See ei tee AI-d kasutuks. See teeb ühe asja väga selgeks: ilma kontekstita ei analüüsi AI masinat, vaid arvab. Ja ohutuses on arvamine elegantne ainult esimese õnnetuseni.

Hea küsimus on rohkem väärt kui automaatne vastus

Hea tööriist ei peaks alustama valmis tulemuse lubamisest. Ta peaks sundima esitama ebamugavaid küsimusi.

  • Millised on masina piirid?
  • Kes masinat kasutab, puhastab, hooldab ja remondib?
  • Millised tegevused toimuvad tavaolukorras ja millised rikke ajal?
  • Millised ülesanded nõuavad juurdepääsu ohtlikku tsooni?
  • Kas juhendis hoolduseks nimetatud tegevust teeb päriselus operaator?
  • Kas kaitsemeede töötab tootmisrütmis või kutsub see esile kaitsest möödamineku?
  • Kas riski vähendamine toimub olemuslikult ohutu projekteerimisega, tehnilise kaitsemeetmega või ainult kasutajainfo kaudu?

AI võib aidata neid küsimusi genereerida, kontrollida terviklikkust, osutada võimalikele lünkadele ja aidata põhjendusi sõnastada. Aga AI ei tohiks ilma masina andmeteta nendele küsimustele ise vastata. Muidu ei toimu analüüs. Toimub veenev oletamine.

Otsustusjälg on tähtsam kui ilus tabel

Iga tõsiseltvõetav masinate riskihindamine peab olema taastatav. Mitte ainult loetav, vaid taastatav. Hiljem peab olema arusaadav, miks ohuolukord loeti oluliseks, miks võimaliku kahju raskus hinnati just nii, miks kokkupuute sagedus määrati selliseks, miks valiti konkreetne kaitsemeede ja miks jääkriski peeti vastuvõetavaks.

Kui seda ei ole, muutub dokument raskesti kaitstavaks. Tabel näitab tulemust, aga ei näita mõttekäiku. Auditi ajal, moderniseerimisel, kliendivaidluses, järelevalves või pärast õnnetust ei ole väide AI genereeris nii mingi argument. Sama vähe aitas varem väide Excelis tuli nii välja.

Kui riski vähendati kaitsepiirdega, peab olema selge, mis funktsiooni see täidab, millise juurdepääsu eest kaitseb ja millise ülesandega see seostub. Kui kasutati ohutusfunktsiooni, peab olema arusaadav, millise ohtliku stsenaariumi see katkestab ja millised tehnilised nõuded sellel on. Kui osa riskist jäeti jääkriskina alles, peab olema põhjendatud, miks seda ei olnud mõistlikult võimalik edasi vähendada olemuslikult ohutu projekteerimise või tehniliste kaitsemeetmetega.

Siin võib AI olla kas kvaliteedi võimendi või segaduse võimendi. Kui protsess on korrastatud, aitab AI põhjendusi ühtlustada, leida vastuolusid ja tuvastada puuduvaid seoseid. Kui protsessi ei ole, toodab AI lihtsalt parema stiiliga udu.

Näide: kahvelandur pikilõikuril

Võtame lihtsa, aga väga tüüpilise näite tootmishallist. Pikilõikur (slitter) kasutab kahvelandurit lindi asendi tuvastamiseks. Materjali laiuse muutmisel peab operaator andurit ümber seadistama. Probleem on selles, et reguleerimiskoht asub ohtlikus tsoonis. Anduri nihutamiseks tuleb minna alale, kus on liikuvad rullid, võllid, kaasatõmbekohad, pinges lint või lõikemehhanismi osad.

Mida teeb AI, kui talle anda üldine ülesanne? Tõenäoliselt pakub see midagi täiesti tuttavat: kasutada LOTO protseduuri, koolitada operaatorit, tähistada ohtlik tsoon, lisada juhend, rakendada kaitsepiirdeid ja hädaseiskamist. Keeleliselt korrektne? Jah. Insenertehniliselt piisav? Mitte tingimata.

Õige küsimus ei ole, kuidas kirjeldada ohtlikku tsooni sisenemise riski. Õige küsimus on, miks peab operaator üldse sisenema ohtlikku tsooni, et teha normaalset ümberseadistust. Kui lindi laiuse muutmine on tavapärane tootmistegevus, ei saa seda käsitleda erakorralise hooldusena. Siis ei piisa lahtrisse kirjutatud LOTO-st. Tuleb kontrollida, kas see on reaalselt teostatav iga ümberseadistuse ajal, kas masin peab olema täielikult seisatud, kas anduri seadistus nõuab lindi liikumise jälgimist, kas pärast seadistust on vaja prooviliikumist ja kas olemasolev kaitsepiire sunnib töötajat kaitsest mööda minema.

Siin tuleb mängu olemuslikult ohutu projekteerimine. Kas kahvelanduri saab viia juhikule, mida saab reguleerida väljastpoolt ohtlikku tsooni? Kas kasutada mehaanilist skaalat, retseptipõhist positsioneerimist või teist tüüpi tuvastust, mis ei nõua käe viimist ohtlikku piirkonda? Kas muuta anduri kinnitust, asukohta või kogu ümberseadistuse järjestust? Alles siis, kui juurdepääsu vajadust ei saa projekteerimisega kõrvaldada, on mõistlik liikuda järgmiste sammude juurde: blokeeringuga ja lukustusega kaitsepiire, seadistusrežiim, piiratud kiirus, hoidnupuga juhtimine, lubamisseade, ohutu seiskamine, LOTO, juhend ja koolitus.

Järjekord on siin kriitiline. ISO 12100 ei alga koolitusega. Kõigepealt tuleb küsida, kas oht saab kõrvaldada või riski vähendada projekteerimise kaudu. Kui AI annab kohe tüüpilise kaitsemeetmete paketi, võib ta kirjeldada riski väga elegantselt, kuid jätta lahendamata selle tegeliku põhjuse. Dokument näeb hea välja. Inimene läheb endiselt sinna, kuhu ta ei peaks minema.

Kui AI puudutab ohutusfunktsiooni, muutub mäng

Siin tuleb teha selge vahe kahe täiesti erineva kasutusviisi vahel. Esimene on AI kui inseneri tööriist: küsimuste genereerimine, terviklikkuse kontroll, põhjenduste toimetamine, vastuolude otsimine. See võib olla väga kasulik. Teine on AI või masinõppe kasutamine masinas endas, eriti siis, kui süsteem peab täitma ohutusfunktsiooni. Siin ei ole enam tegemist mugava kontoritööriistaga. Siin on kaalul masina tegelik käitumine ohtlikus olukorras.

EL masinamäärus 2023/1230 paneb tootjale kohustuse teha masinate riskihindamine, määrata kindlaks kohaldatavad tervise- ja ohutusnõuded ning projekteerida masin nii, et ohud kõrvaldatakse või riskid minimeeritakse. See kohustus ei kuulu AI-le. See jääb tootjale, projekteerijale, integraatorile ja sellele, kes annab masina kasutusse või toob selle turule koos CE-märgisega.

Kui süsteemil on ise muutuv käitumine ja see tagab ohutusfunktsiooni, siis on olukord regulatiivselt palju rangem. Selliste lahenduste puhul ei piisa väitest, et algoritm töötab tavaliselt hästi. Vajalik on vastavushindamine, tehniline dokumentatsioon, tõendatav prognoositavus, piisav töökindlus, küberkindlus, inimjärelevalve ja vajaduse korral teavitatud asutuse osalus. See ei ole innovatsioonivastasus. See on elementaarne ettevaatus seal, kus vea hind võib olla raske vigastus või surm.

Sama loogikat tugevdab EL AI-määrus. Kui AI on seotud toote ohutusega viisil, mis toob kaasa kolmanda osapoole vastavushindamise, võib tegemist olla kõrge riskiga süsteemiga. Sellisel juhul ei huvita kedagi ainult täpsusprotsent esitlusslaidil. Huvitab see, mis juhtub siis, kui sisendandmed muutuvad, valgustus on halb, andur määrdub, temperatuur kõigub, operaator käitub ettenägematult või süsteem satub olukorda, mida treeningu ajal ei olnud.

Masinates ei piisa sellest, et mudel annab häid tulemusi enamiku ajast. Kriitiline on see ülejäänud osa. Mis juhtub siis, kui inimene jäetakse tuvastamata? Mis juhtub siis, kui ohutusfunktsioon aktiveerub liiga hilja või ei aktiveeru üldse? Mis juhtub siis, kui süsteem käitub pärast muudatusi teisiti kui kasutuselevõtu hetkel? Need ei ole filosoofilised küsimused. Need on väga praktilised inseneriküsimused.

Kokkuvõte

AI võib olla masinate riskihindamises väga tugev assistent. Ta võib aidata struktureerida infot, märgata lünki, pakkuda kontrollküsimusi, võrrelda stsenaariume ja teha dokumentatsiooni arusaadavamaks. Aga AI ei tohi muutuda vastutuse autoriks. Vastutus jääb inimesele ja organisatsioonile, kes masina projekteerib, integreerib, hindab ja kasutusse annab.

Kui AI tugevdab protsessi, on sellest reaalne kasu. Kui AI asendab protsessi, tekib lihtsalt paremini vormindatud näilisus. Ja see on masinate ohutuses halb tehing. Ilus tabel ei peata rulli, ei peata võlli ja ei katkesta ohtlikku liikumist. Ohu vähendab ainult selline otsus, mille taga on päris masina mõistmine, taastatav otsustusjälg ja distsiplineeritud töö ISO 12100 järgi.

Korduma kippuvad küsimused

Kas tehisintellekt võib masinate riskihindamises inseneri asendada?

Ei. AI võib kiirendada materjali kogumist, märkmete korrastamist ja tabeli koostamist, kuid see ei asenda analüüsi, mida nõuab ISO 12100. Mudel ei jälgi masinat, ei tunne operaatori tegelikke tööülesandeid ega mõista projekti piiranguid, kui keegi neid talle ei anna.

Riski hindamine on protsess: masina piiride kindlaksmääramine, ohtude tuvastamine, riski analüüs, riski väärtustamine ja riski vähendamine. AI võib olla selles protsessis tööriist, kuid mitte selle sisuline teostaja.

Kas tehisintellekti abil tehtud riskihindamine võib olla kooskõlas standardiga ISO 12100?

Jah, kuid ainult siis, kui AI toetab juba tehtud analüüsi, mitte ei teeskle seda. Vastavus standardile ISO 12100 ei tulene tabeli ilusast ülesehitusest, vaid sellest, kas projekteerimisotsusteni viiv arutluskäik on taastatav.

Kui kirjed viitavad konkreetsele ohustatud isikule, ülesandele, masina elutsükli etapile, ohtlikule olukorrale ja ohtlikule sündmusele ning rakendatud kaitsemeetmed on verifitseeritud, võib AI abil koostatud materjal olla kasulik. Pelgalt teksti genereerimine ei loo vastavust.

Miks AI-ga seotud ohtude loetelu ei ole veel riskihinnang?

Sest ohtude loetelu on alles algus. Ainuüksi kirje nagu mehaaniline oht, muljumine, kohtkindel kaitse ei selgita, kes on ohus, millise toimingu ajal, kui sageli toimub juurdepääs ja mis käivitab ohtliku sündmuse.

Praktikas võivad kaks sama tüüpi masinat nõuda täiesti erinevat riski vähendamist, kui ümberseadistamine, ummistuste kõrvaldamine, puhastamine, reguleerimine või hooldusjuurdepääs on erinevad. Kontekstita tabel muutub kergesti protsessi näiliseks asenduseks.

Millal AI masinate riskihindamisel päriselt aitab?

Tehisintellekt annab suurimat väärtust seal, kus on vaja kiiresti korrastada eksperditeadmisi, mitte neid asendada. Pärast masinast andmete kogumist toimib see hästi toimetusliku ja analüütilise toena.

  • tuntud masinatüübi esialgse ohtude kaardi koostamine,
  • ülevaatusest, fotodest ja märkmetest pärit tähelepanekute korrastamine,
  • jälgimine, et masina elutsükli etapid ja tüüpilised ülesanded ei jääks tähelepanuta,
  • dokumentatsiooni keele ühtlustamine pärast meeskonna tehtud otsuseid.
Millised andmed tuleb tehisintellektile anda, et tulemus oleks mõistlik?

Mida üldisem on sisendkirjeldus, seda üldisem ja näilisem on tulemus. Et tehisintellekti kasutamine masinate riskihindamisel oleks mõttekas, tuleb esitada masina piirid, kasutusviis ja inimese tegelikud koostoimed masinaga.

  • ohustatud isikute rollid,
  • ülesanded masina elutsükli igas faasis,
  • töörežiimid, juurdepääsupunktid ja energiaallikad,
  • sekkumiste sagedus, ummistused, ümberseadistused ja hooldus,
  • olemasolevad kaitsemeetmed ning teadaolevad kaitseseadiste möödaviisid.

Valmis muutusteks?

Loo konto ja loo 15 minutiga nõuetele vastav dokumentatsioon.

Alusta tasuta prooviperioodi Ilma pangakaardita • 14 päeva tasuta