AI mašīnu riska novērtēšanā: palīgs inženierim vai šķietamības ģenerators?
AI mašīnu riska novērtēšanā ienāca ļoti ātri. Tur, kur gadiem valdīja Excel, kontrolsaraksti un no viena projekta uz otru pārkopēti dokumenti, tagad pietiek ievadīt mašīnas nosaukumu, dažus vispārīgus faktus un pēc brīža uz ekrāna jau stāv tabula ar apdraudējumiem, iespējamām sekām, aizsardzības pasākumiem, riska līmeņiem un atlikušo risku. Izskatās profesionāli. Izskatās pārliecinoši. Bet te arī sākas problēma. Skaista tabula vēl nav mašīnu riska novērtēšana pēc ISO 12100. Riska novērtēšanas vērtību neveido kolonnu skaits vai tehnisks tonis. Vērtību veido tas, vai no dokumenta var atjaunot domāšanas gaitu, kas noveda līdz konkrētiem projektēšanas lēmumiem.
Un tieši šeit ļoti daudzi iekrīt. Ne jau tāpēc, ka AI vienmēr kļūdās. Bieži tieši otrādi — vispārīgā līmenī tas raksta pārāk gludi. Tik gludi, ka cilvēkiem sāk šķist: process ir noticis. Nē. Ir notikusi teksta ģenerēšana. Drošībā tās nav vienas un tās pašas lietas.
AI mašīnu riska novērtēšanā: jaunā tehnoloģija, vecā problēma
Patiesību sakot, problēma nav sākusies ar AI. Jau gadiem daļa mašīnu riska novērtējumu izskatījās vienādi: Excel fails, apdraudējumu saraksts, pāris vispārīgas sekas, standarta aizsardzības pasākumi un obligāts riska samazinājums pēdējā kolonnā. Dokuments bija. Krāsas bija. Rindas bija aizpildītas. Tikai bieži trūka paša galvenā — reālas saiknes starp apdraudējumu, cilvēka uzdevumu, mašīnas dzīves cikla fāzi, bīstamu situāciju un bīstamu notikumu.
Vai apdraudējums tika ierakstīts? Jā. Vai sākotnējais risks tika novērtēts? Jā. Vai pēc aizsardzības pasākuma ieviešanas risks samazinājās? Protams, ka samazinājās — citādi taču tabula izskatītos slikti.
Bet vai kāds tiešām pārbaudīja, ko operators dara pārregulēšanas laikā? Vai kāds saprata, kā praksē notiek iesprūšanas novēršana? Vai kāds analizēja tīrīšanu, regulēšanu, tehnisko apkopi, iestatīšanu, rokas režīmu, servisa piekļuvi un paredzamu aizsardzību apiešanu? Vai izvēlētais riska samazināšanas pasākums izrietēja no analīzes, vai tikai no vajadzības aizvērt kārtējo rindu?
Tas ir neērts jautājums. Un daudzos gadījumos atbilde ir nepatīkama.
Excel pats par sevi nekad nebija problēma. Tas ir tikai instruments. Problēma bija tajā, ka ar Excel bija ļoti viegli izveidot procesa butaforiju. Ieraksti kustīgas daļas, saspiešana, fiksēts aizsargs, darba instrukcija, operatora apmācība — un dokuments pēkšņi sāk izskatīties pazīstams. Tehnisks. Drošs. Nopietns. Tikai pazīstama kolonnu struktūra vēl nenozīmē, ka kāds ir veicis riska novērtēšanu.
Tagad klāt ir nācis AI, un to pašu kļūdu var izdarīt ātrāk, glītāk un daudz pārliecinošāk. Vājais Excel bieži pats sevi nodeva. Teksts bija nabadzīgs, atkārtojošs, salipināts no gatavām frāzēm. AI ģenerēta tabula var izskatīties nobriedusi, loģiska un profesionāla. Un tieši tāpēc risks kļūst lielāks. Iespaids par analīzi vēl nav analīze.
ISO 12100 neapraksta labi skanošu dokumentu ražošanu. Tas apraksta metodiku drošības sasniegšanai mašīnu projektēšanā, ietverot mašīnu riska novērtēšanu un riska samazināšanu. Tātad jautājums nav par to, vai vari uzģenerēt tehnisku apdraudējumu sarakstu. Jautājums ir par to, vai tu saproti, kur cilvēks sastopas ar mašīnu, ko viņš tajā brīdī dara, kas var noiet greizi un kā projektam uz to jāatbild.
ISO 12100 nesākas ar apdraudējumu katalogu
Šī ir viena no biežākajām kļūdām: sāk ar jautājumu — kādi apdraudējumi ir šai mašīnai? No pirmā acu uzmetiena izklausās loģiski. Ir piedziņa — tātad mehāniskie apdraudējumi. Ir barošana — tātad elektriskie apdraudējumi. Ir pneimatika — tātad saspiesta gaisa enerģija. Ir karstas virsmas — tātad apdegumu risks. Ir kustīgas daļas — tātad ievilkšana, satveršana, saspiešana, griezums, trieciens.
Tabula aug. Tikai tas joprojām nav riska novērtējums. Tas ir potenciālo apdraudējumu katalogs. Noderīgs, bet nepietiekams.
Apdraudējums pats par sevi vēl neraksturo risku. Asa mala ir apdraudējums. Risks parādās tad, kad kāds ar to var saskarties. Piedziņa ir enerģijas avots. Risks ir atkarīgs no tā, kurš, kad un kāpēc atrodas tās tuvumā. Kustīgs mehānisms normālā darbā var būt pilnībā nodalīts, bet kļūt kritisks tīrīšanas, iesprūšanas novēršanas vai pārbaudes laikā rokas režīmā.
Tāpēc labāks jautājums ir cits: kurš cilvēks, kura uzdevuma laikā, kurā mašīnas dzīves cikla fāzē un kādos apstākļos var nonākt bīstamā situācijā? Tikai pēc tam ir jēga iet tālāk un jautāt, kas var ierosināt bīstamu notikumu. Negaidīta iedarbināšana? Stabilitātes zudums? Piekļuve kustīgām daļām? Kļūda vadības loģikā? Atlikusī enerģija? Materiāla iesprūšana? Nepareiza regulēšana? Slikta redzamība? Vienas personas darbs? Slikti izveidota piekļuve?
Te ir būtiska niansa. Ne katru scenāriju var iestumt vienā lineārā shēmā. Dažreiz sākumpunkts ir cilvēka uzdevums — tīrīšana, pārregulēšana, iestatīšana, apkope. Dažreiz sākumpunkts ir bīstams notikums — caurules plīsums, negaidīta palaišanās, vadības sistēmas atteice, kravas krišana, ugunsgrēks, barošanas zudums. Laba mašīnu riska novērtēšana spēj apkalpot abus domāšanas virzienus: uz uzdevumu balstītu un uz notikumu balstītu. Vājā riska novērtēšanā viss tiek vardarbīgi salocīts vienā ērtā rindiņā.
Un AI tieši to dara ļoti labprāt. Tas sakārto pasauli glītā, lineārā shēmā. Bultiņas, kolonnas, loģiski pārejas posmi. Izskatās tīri. Tikai dzīvē mašīna, cilvēks, atteice un vide ne vienmēr uzvedas tik pieklājīgi.
AI mašīnu riska novērtēšanā nedrīkst aizstāt procesu
Ja lietotājs ievada sistēmā vienkāršu uzdevumu sagatavot riska novērtējumu iepakošanas mašīnai, viņš gandrīz noteikti saņems kaut ko, kas atgādina riska novērtējumu. Mehāniskie apdraudējumi, elektriskie apdraudējumi, ergonomika, troksnis, pneimatika, iespējams, apdegumi, vispārīgi aizsardzības pasākumi. Pirmajā skatā — diezgan labi.
Tikai tā nebūs konkrētās mašīnas riska novērtēšana. Tas būs statistiski ticams tipiskas mašīnas apraksts. Bet starp šīm divām lietām ir plaisa.
Konkrētai mašīnai ir konkrēti ierobežojumi. Konkrētas piekļuves. Konkrēti darba režīmi. Konkrētas kustību secības. Konkrētas iesprūšanas vietas. Konkrētas tehniskās apkopes darbības. Konkrēta telpa ap mašīnu. Konkrēts operators ar konkrētu ražošanas spiedienu un ļoti konkrētiem paradumiem.
AI to nezina. Tas nezina, ka operators ir spiests ielikt roku dziļāk, nekā paredzēja projektētājs. Tas nezina, ka panelis atrodas nepareizajā pusē un cilvēks novēro procesu no vietas, ko neviens nav paredzējis. Tas nezina, ka aizsargs ir smags un pēc divām nedēļām to sāk atstāt atvērtu. Tas nezina, ka instrukcijā paredzētas divas personas, bet dzīvē vienmēr strādā viena. Tas nezina, ka pārregulēšana, kas dokumentos skaitās reta, realitātē notiek piecas reizes maiņā.
Tieši tāpēc AI bez konteksta ir bīstami pārliecinošs. Ne jau tāpēc, ka vienmēr kļūdītos. Problēma ir cita — mašīnu riska novērtēšana neizšķiras vispārīgā līmenī. Tā izšķiras detaļā. Tajā vienā piekļuves punktā. Tajā vienā uzdevumā. Tajā vienā režīmā, kur cilvēks rīkojas mazliet citādi, nekā rakstīts dokumentācijā.
Tāpēc labs AI pielietojums nesākas ar komandu ģenerēt tabulu. Tas sākas ar konteksta vākšanu: mašīnas ierobežojumi, mašīnas dzīves cikla fāzes, uzdevumi, reālās cilvēka un mašīnas mijiedarbības, bīstamas situācijas, bīstami notikumi, piekļuves, enerģijas avoti, uzturēšanas prasības. AI var palīdzēt uzdot jautājumus. Taču tas nedrīkst pats izdomāt atbildes uz jautājumiem, kuriem nav ievaddatu. Tad tas neanalizē. Tas min. Un minēšana mašīnu drošībā izskatās eleganti tikai līdz pirmajam negadījumam.
Ko AI drīkst darīt labi
Ja process jau ir sakārtots, AI var būt ļoti noderīgs. Piemēram, tas var:
- atgādināt par tīrīšanu, apkopi, iestatīšanu un iesprūšanas novēršanu;
- palīdzēt pārbaudīt, vai katram apdraudējumam ir sasaite ar konkrētu uzdevumu vai notikumu;
- norādīt uz pretrunām starp izvēlētajiem aizsardzības pasākumiem un atlikušo risku;
- sakārtot argumentāciju un uzlabot dokumentācijas valodu;
- palīdzēt uzturēt konsekventu struktūru vairākos projektos.
Tas ir vērtīgi. Bet tikai tad, ja AI strādā uz procesa, nevis procesa vietā.
Labs prompt nav ISO 12100 metodika
Te parādās nākamais kārdinājums: ja rezultāts ir vājš, tad vajag labāku prompt. Iekļauj ISO 12100. Iekļauj visu mašīnas dzīves ciklu. Pievieno sākotnējo risku, aizsardzības pasākumus un atlikušo risku. Pieprasi piecpadsmit kolonnas. Pieprasi stingru hierarhiju. Jā, rezultāts var kļūt glītāks. Bet prompt joprojām nav metodika.
Ja ievaddati ir vispārīgi, tad arī rezultāts būs vispārīgs. AI nepievienos faktus, kurus tas nezina. Tas tos aizvietos ar tipisku pieņēmumu. Un mašīnu drošībā tieši netipiska detaļa bieži ir izšķiroša: pēc apstādināšanas mezgls vēl brīdi kustas; tīrīšanai jānoņem aizsargs; servisa piekļuve faktiski ir ikdienas operatora piekļuve; materiāls iesprūst tieši tajā vietā, kur roka ieiet vistālāk; apkopes laikā jāuzkāpj uz konstrukcijas, kas nav projektēta kā piekļuves vieta.
No mašīnas nosaukuma to nevar uzzināt. No glīta prompt to nevar izsecināt. To var uzzināt tikai no faktiskas mašīnas, faktiskas novērošanas un faktiskas sarunas ar cilvēkiem, kuri ar to dzīvo katru dienu.
Lēmumu izsekojamība ir svarīgāka par glītu tabulu
Katra nopietna mašīnu riska novērtēšana ir jāspēj ne tikai izlasīt, bet arī atjaunot. Kāpēc risks tika novērtēts tieši tā? Kāpēc šo bīstamo situāciju uzskatīja par būtisku? Kāpēc pieņēma šādu iespējamo kaitējuma smagumu? Kāpēc iedarbības biežums tika novērtēts šādi? Kāpēc izvēlējās tieši šādu riska samazināšanas pasākumu? Kāpēc neizvēlējās citu? Kāpēc atlikušais risks tika atzīts par pieņemamu?
Ja uz šiem jautājumiem nav atbildes, dokumentā nav lēmumu izsekojamības. Ir tikai rezultāts bez domāšanas ceļa. Un tieši tas kļūst kritiski auditā, modernizācijā, incidenta analīzē, strīdā ar klientu vai pēc negadījuma. Frāze AI tā ģenerēja nav arguments. Tieši tāpat kā agrāk nebija arguments frāze tā sanāca Excel failā.
Ja risku samazināja ar aizsargu, tad ir jāsaprot, kādu piekļuvi tas ierobežo un kādu cilvēka uzdevumu tas ņem vērā. Ja izmanto drošības funkciju, ir jāsaprot, kādu bīstamu scenāriju tā pārtrauc un kādas tehniskās prasības tai jāizpilda. Ja paliek atlikušais risks, ir jāsaprot, kāpēc to vairs nebija saprātīgi samazināt ar pēc būtības drošu projektēšanu vai citiem aizsardzības pasākumiem.
Ja vienīgā pēda ir viena rinda tabulā, tad tu neesi drošības inženierijā. Tu esi dokumentācijas miglā.
Atkārtojams process ir vērtīgāks par gaumi un noskaņojumu
Mašīnu riska novērtēšanā ir bīstami viegli ieslīdēt subjektivitātē. Viens inženieris risku nosauks par augstu. Cits par vidēju. Viens uzskatīs, ka pietiek ar apmācību. Cits pajautās, kāpēc nav mainīta konstrukcija. Daļa šo atšķirību izriet no pieredzes. Bet daļa — no procesa trūkuma.
Ja nav stabilas secības, tad lēmumi sāk atkarēties no tā, kas tieši aizpilda dokumentu, cik liels ir laika spiediens un kāds veidnes fails bija atvērts iepriekšējā projektā. AI šo problēmu var samazināt vai arī padarīt sliktāku. Samazināt — ja tas ir iebūvēts stingrā metodikā, kas vienmēr iziet cauri tiem pašiem soļiem. Padarīt sliktāku — ja katrs lietotājs raksta savu prompt un katru reizi saņem mazliet citu tabulu ar mazliet citiem pieņēmumiem.
Drošībā vārds mazliet ir slikta zīme. Tāpēc procesam jābūt atkārtojamam:
- mašīnas ierobežojumi;
- paredzētā lietošana un saprātīgi paredzama nepareiza lietošana;
- mašīnas dzīves cikla fāzes;
- cilvēka uzdevumi un piekļuves;
- bīstamas situācijas un vai bīstami notikumi;
- apdraudējumi un iespējamais kaitējums;
- riska novērtēšana un izvērtēšana;
- riska samazināšana pēc pareizas hierarhijas;
- atlikušais risks un pamatojums.
Tad atšķirības starp novērtējumiem izriet no atšķirībām starp mašīnām, nevis no dokumentu autoru noskaņojuma.
Piemērs no dzīves: dakšveida sensors garengriezējā
Iedomāsimies vienkāršu situāciju. Garengriezējā dakšveida sensors nosaka lentes pozīciju. Mainot materiāla platumu, operatoram jāpārstāda sensors. Problēma — regulēšanas vieta atrodas bīstamajā zonā. Lai sensoru pārbīdītu, cilvēkam jāiet zonā, kur ir kustīgi veltņi, ievilkšanas punkti, saspriegota lente un, iespējams, griešanas mezgli.
Ko uzrakstīs vispārīgs AI? Visticamāk, kaut ko ļoti pazīstamu: piemērot LOTO procedūru, apmācīt operatoru, marķēt bīstamo zonu, nodrošināt instrukciju, izmantot individuālos aizsardzības līdzekļus, uzstādīt aizsargus, paredzēt avārijas apturēšanu.
Skaitās gudri? Jā. Atrisina problēmu? Nebūt ne vienmēr.
Jo pareizais jautājums nav — kā aprakstīt risku, kas rodas, ieejot zonā. Pareizais jautājums ir — kāpēc operators vispār ir spiests ieiet bīstamajā zonā, lai veiktu normālu, atkārtojamu pārregulēšanu? Un te sākas īstā inženierija.
Ja platuma maiņa ir parasta ražošanas darbība, tad to nevar traktēt kā retu servisa iejaukšanos. Nepietiek ierakstīt LOTO un apmācību. Jāpārbauda, vai šo regulēšanu iespējams iznest ārpus bīstamās zonas. Varbūt sensoram vajag ārēju vadotni. Varbūt mehānisku skalu. Varbūt receptūras pozicionēšanu. Varbūt citu detekcijas principu. Varbūt jāpārbūvē stiprinājums, piekļuve vai pati pārregulēšanas secība.
Tikai tad, ja vajadzību pēc piekļuves nevar likvidēt ar pēc būtības drošu projektēšanu, ir jēga iet tālāk un vērtēt citus aizsardzības pasākumus: bloķējošs aizsargs, īpašs iestatīšanas režīms, ierobežots ātrums, vadība ar nepārtrauktu piespiešanu, enerģijas atslēgšana, instrukcija, apmācība. Secība nav formalitāte. Tā ir jēga. ISO 12100 nesākas ar operatora apmācību. Tas sākas ar jautājumu, vai apdraudējumu var novērst vai samazināt ar projektu.
Šeit arī redzama robeža starp AI kā dokumentācijas ģeneratoru un AI kā procesa asistentu. Ģenerators uzraksta — pielietot LOTO un apmācīt operatoru. Asistents uzdod neērtu, bet vērtīgu jautājumu — vai šai darbībai vispār būtu jāprasa ieiešana bīstamajā zonā?
AI kā palīgs riska novērtēšanā ir viens, AI drošības funkcijā ir pavisam kas cits
Te ir ļoti svarīga robeža. Viens ir izmantot AI kā instrumentu, kas palīdz inženierim strukturēt informāciju, uzdot kontroljautājumus, meklēt robus un uzlabot dokumentāciju. Tas ir pilnīgi cits stāsts nekā AI vai mašīnmācīšanās izmantošana pašā mašīnā, it īpaši tad, ja sistēma nodrošina drošības funkciju.
Un te beidzas modernais mārketings un sākas nopietna disciplīna.
Mašīnu regula (ES) 2023/1230 skaidri prasa, lai ražotājs veiktu riska novērtēšanu, noteiktu piemērojamās būtiskās veselības un drošības prasības un projektētu mašīnu, ņemot vērā šīs novērtēšanas rezultātus. Atbildība nav AI modelim. Atbildība paliek ražotājam, projektētājam, integratoram un tam, kurš laiž mašīnu tirgū vai nodod lietošanai.
Vēl vairāk — ja runa ir par drošības komponentiem vai sistēmām ar pilnībā vai daļēji pašmainīgu uzvedību, kas nodrošina drošības funkciju, tad spēles noteikumi kļūst stingrāki. Tur vairs nepietiek ar apgalvojumu, ka algoritms parasti strādā labi. Šādi risinājumi nonāk atbilstības novērtēšanas režīmā, kur nepieciešama trešās puses iesaiste, proti, paziņotā iestāde.
Arī AI akta loģika ir līdzīga. Ja AI sistēmu paredzēts izmantot kā produkta drošības komponenti, tā var kļūt par augsta riska sistēmu. Tas nozīmē nepārtrauktu riska pārvaldību visā dzīves ciklā, cilvēka uzraudzību, prasības precizitātei, noturībai, kiberdrošībai un spējai uzturēt drošu darbību arī kļūdu vai noviržu gadījumā.
Un te ir pats nepatīkamākais, bet svarīgākais jautājums: kas notiek tajā atlikušajā procentā, kad modelis kļūdās? Ko sistēma dara, ja tā nepamana cilvēku? Ko tā dara, ja sensors ir netīrs, apgaismojums mainās, vibrācijas ir lielākas nekā testos, materiāls ir nestandarta, operators rīkojas ne tā, kā paredzēts, vai vide kļūst citāda nekā laboratorijā? Šie nav filozofiski jautājumi. Tie ir drošības inženierijas jautājumi.
Tāpēc ir jānošķir divas ilūzijas. Pirmā — AI uzģenerēja dokumentu, tātad mums ir riska novērtēšana. Otrā — AI testos darbojas labi, tātad tas var mierīgi pārņemt drošības funkciju. Abas ilūzijas ir bīstamas. Pirmajā gadījumā tu iegūsti glītu dokumentāciju bez reāla lēmumu procesa. Otrajā — ieej regulējuma un atbildības laukā, kur nepietiek ar skaistu prezentāciju un iespaidīgu precizitātes procentu.
Secinājums: AI var palīdzēt, bet atbildību tas nenes
AI ir vieta mašīnu riska novērtēšanā. Un laba vieta. Tas var paātrināt darbu, palīdzēt nepalaist garām scenārijus, sakārtot informāciju un uzlabot pamatojumus. Bet tas nav atbildības autors. Tas nav aizvietotājs cilvēkam, kurš saprot mašīnu, procesu, ekspluatācijas realitāti un drošības loģiku.
Ja izmanto AI kā asistentu, kas palīdz domāt, pārbaudīt un dokumentēt, ieguvums var būt ļoti liels. Ja izmanto AI kā īsceļu, lai bez sāpēm uzražotu tabulu, tad iegūsi tieši to pašu veco problēmu — tikai daudz glītākā iepakojumā.
Drošībā forma nav process. Tabula nav metodika. Un labi uzrakstīts teksts vēl nav pierādījums, ka risks ir saprasts, novērtēts un samazināts pareizā secībā. Ja nav lēmumu izsekojamības, nav auditējamas mašīnu riska novērtēšanas. Ir tikai dokumenta imitācija.
Un imitācijas mašīnu drošībā beidzas slikti. Ne vienmēr uzreiz. Bet vienmēr dārgi.