AI pri posudzovaní rizika strojov
TL;DR
  • AI vie rýchlo vytvoriť dôveryhodnú tabuľku, no samotný zoznam ohrození ešte nie je posudzovanie rizík podľa ISO 12100.
  • Kvalitné posúdenie musí ukázať, kto, pri akej úlohe, v ktorej fáze života stroja a za akých podmienok sa dostáva do nebezpečnej situácie.
  • Najväčšie riziko je zameniť dokument za proces: AI zrýchľuje kopírovanie všeobecných fráz a môže zakryť chýbajúce inžinierske rozhodovanie.
  • AI má zmysel ako asistent pri práci s reálnymi údajmi o stroji, režimoch, prístupoch a údržbe, nie ako náhrada zodpovedného inžiniera.
  • Dobrý postup sa nezačína príkazom vygeneruj tabuľku, ale zberom kontextu: hranice stroja, úlohy ľudí, zdroje energie, prístupy a poruchové stavy.

AI pri posudzovaní rizík strojov znie ako logický krok. Roky tu vládol Excel, staré šablóny, kopírované riadky a kontrolné zoznamy, ktoré sa tvárili odborne. Dnes stačí zadať názov stroja, pár všeobecných údajov a za chvíľu máte tabuľku, ktorá vyzerá seriózne: ohrozenie, následok, ochranné opatrenie, úroveň rizika, zvyškové riziko. Na prvý pohľad všetko sedí. Lenže pekná tabuľka ešte nie je posudzovanie rizík strojov podľa ISO 12100. Hodnota nevzniká počtom riadkov ani technicky znejúcim jazykom. Hodnota vzniká vtedy, keď viete spätne preukázať, prečo padlo konkrétne rozhodnutie v návrhu stroja. A to je úplne iná úroveň disciplíny aj zodpovednosti.

AI pri posudzovaní rizík strojov

Tu nevznikol nový problém. Vznikol starý problém v krajšom balení. Kedysi sa recyklovali riadky z predošlého projektu. Dnes model vygeneruje nové riadky za pár sekúnd. Kedysi bolo na slabom dokumente vidieť, že je poskladaný zo všeobecných fráz. Dnes môže výstup vyzerať dospelo, súdržne a profesionálne. A práve preto je riziko vyššie.

Najväčšia chyba je zameniť dokument za proces. ISO 12100 nepopisuje výrobu dobre znejúcich tabuliek. Popisuje metodiku dosahovania bezpečnosti pri navrhovaní strojov cez posudzovanie rizík strojov a znižovanie rizika. To znamená rozumieť stroju, jeho hraniciam, fázam života, úlohám človeka, prístupom do priestoru stroja, zdrojom energie, nebezpečným situáciám a nebezpečným udalostiam. Nestačí vyrobiť zoznam ohrození. Treba pochopiť, kde sa človek stretáva so strojom, čo tam robí, čo môže zlyhať a aké ochranné opatrenie je naozaj primerané.

Presne tu AI zvádza k pohodlnému skoku na koniec. Namiesto analýzy príde tabuľka. Namiesto otázok prídu hotové odpovede. Namiesto rozhodovania príde ilúzia, že rozhodnutie už bolo urobené. Lenže v bezpečnosti strojov nie je dôležité, či dokument vyzerá múdro. Dôležité je, či za ním stojí rekonštruovateľné uvažovanie. Bez toho je to len dekorácia.

ISO 12100 sa nezačína zoznamom ohrození

Veľmi častá chyba je začať otázkou, aké ohrozenie má stroj. Znie to rozumne, ale je to plytké. Dopravník bude mať vtiahnutie a zachytenie. Lis bude mať pracovný priestor nástroja, pohyb, zvyškovú energiu. Robot bude mať kolíziu, vstup do priestoru, programovací režim, neočakávaný pohyb. Baliaca linka bude mať pohony, pásy, valce, nože, ohrev, servisné prístupy. To všetko vie AI vypísať veľmi presvedčivo. Otázka je, čo z toho naozaj vyplýva.

Samotná prítomnosť ohrozenia v tabuľke ešte nič nevysvetľuje. Nepovie vám, kto je vystavený. Nepovie vám, pri akej úlohe. Nepovie vám, či k prístupu dochádza denne, raz týždenne alebo len pri poruche. Nepovie vám, či človek pracuje pri zastavenom stroji, v ručnom režime, s otvoreným krytom, pod časovým tlakom alebo s obmedzenou viditeľnosťou. A už vôbec nepovie, či navrhnuté ochranné opatrenie rieši príčinu problému alebo len pekne vypĺňa bunku.

Posudzovanie rizík strojov sa začína inde. Začína otázkou, ktorá konkrétna osoba, v ktorej fáze života stroja, pri akej úlohe a za akých podmienok sa môže dostať do nebezpečnej situácie. Až potom má zmysel pýtať sa ďalej. Čo môže spustiť nebezpečnú udalosť? Neočakávaný rozbeh? Prístup k pohybujúcej sa časti? Chyba logiky riadenia? Zvyšková energia? Zaseknutý materiál? Zlá nastavovacia činnosť? Zlý prístup? Bežná činnosť, ktorú si návrhár omylom odložil do kolónky servis, hoci ju operátor robí pätnásťkrát za zmenu?

Dobrá analýza preto nesmie násilne tlačiť všetko do jedného jednoduchého reťazca. Niekedy je východiskom úloha človeka. Inokedy nebezpečná udalosť, ktorá až následne vytvorí nebezpečnú situáciu. Rozumný proces musí zvládnuť oba smery uvažovania. Ak to nevie, skôr či neskôr niečo prehliadne.

Kde sa AI pri posudzovaní rizík strojov láme bez kontextu

Keď do modelu zadáte, aby pripravil posúdenie pre baliaci stroj, dostanete odpoveď, ktorá bude štatisticky pravdepodobná. Mechanické ohrozenie, elektrické ohrozenie, tepelné ohrozenie, pneumatika, hluk, ergonómia, kryty, školenie, núdzové zastavenie. Na prvý pohľad slušné. Lenže to stále nie je posúdenie konkrétneho stroja. Je to opis typického stroja typickým jazykom.

Konkrétny stroj má konkrétne hranice. Konkrétne prístupy. Konkrétne režimy. Konkrétne miesta zaseknutia. Konkrétne servisné zásahy. Konkrétny priestor okolo seba. Konkrétneho operátora, ktorý pracuje v konkrétnom závode pod konkrétnym výrobným tlakom. A často aj konkrétne obchádzanie ochranných opatrení, ktoré nevzniklo zo zlej vôle, ale preto, že návrh nepočítal s realitou prevádzky.

AI to bez vstupných údajov nevie. Nevie, že ovládací panel je na zlej strane a človek sleduje pohyb z miesta, s ktorým nikto nerátal. Nevie, že kryt je ťažký, preto ho po dvoch týždňoch nechávajú otvorený. Nevie, že návod predpisuje dvoch ľudí, ale v skutočnosti to robí jeden. Nevie, že údajne zriedkavé prestavenie sa v praxi deje niekoľkokrát denne. Nevie, že porucha, ktorú návrhár považoval za výnimočnú, je pre údržbu normálne pondelkové ráno.

A tu je podstata problému. AI nebýva nebezpečná preto, že je vo všeobecnostiach vždy zlá. Často nie je. Nebezpečná je preto, že posudzovanie rizík strojov sa láme v detailoch. V jednom konkrétnom prístupe. V jednej konkrétnej úlohe. V jednom konkrétnom režime. V jednej konkrétnej odchýlke medzi dokumentáciou a skutočnou prevádzkou.

AI ako asistent inžiniera, nie autor zodpovednosti

To neznamená, že AI nemá v tejto oblasti miesto. Má. Ale len vtedy, keď je jasné, čo robí a čo robiť nesmie. AI môže pomôcť nájsť medzery, sprehľadniť údaje, navrhnúť kontrolné otázky, porovnať podobné scenáre, upraviť jazyk správy a zrýchliť dokumentovanie. To je užitočné. No zodpovednosť neleží v modeli. Zostáva na výrobcovi, návrhárovi, integrátorovi, tíme, ktorý rozhoduje, a na osobe, ktorá dokumentáciu podpíše.

AI môže navrhnúť blokovací kryt s blokovaním. Ale niekto musí vedieť, prečo práve taký, pri akom prístupe, s akým časom zastavenia, pre akú bezpečnostnú funkciu a s akou frekvenciou vstupov. Niekto musí posúdiť, či nové riešenie nevytvára ďalšie ohrozenie, či nekomplikuje čistenie a či nebude motivovať k obchádzaniu.

AI môže napísať, že treba preškoliť operátora. Lenže školenie nie je univerzálne ochranné opatrenie. Ak človek každý deň siaha k pohybujúcej sa časti, problém nie je v nedostatku školenia. Problém je v návrhu, ktorý núti človeka do kontaktu s ohrozením. Doplniť školenie do tabuľky je jednoduché. Odstrániť potrebu nebezpečného kontaktu je inžinierska práca.

AI môže napísať, že sa má použiť LOTO. Ale niekto musí položiť nepríjemnú otázku: hovoríme o údržbe raz za mesiac, alebo o odstraňovaní zaseknutia trikrát za zmenu? Ak je postup odpojenia energie pri danej činnosti nereálny, nie je to zníženie rizika. Je to len želanie zapísané do dokumentu.

Dobré využitie AI sa preto nezačína vetou vygeneruj mi tabuľku. Začína sa zbieraním kontextu. Hranice stroja. Fázy života. Úlohy operátora. Úlohy údržby. Prístupy. Režimy práce. Zdroje energie. Reálne nebezpečné situácie. Reálne nebezpečné udalosti. Až potom má AI zmysel ako pomocník.

Prompt nie je metodika podľa ISO 12100

Ďalšie pokušenie je myslieť si, že problém vyrieši lepší prompt. Pridáte ISO 12100, celý životný cyklus, rozumne predvídateľné nesprávne použitie, viac stĺpcov, viac detailu. Výsledok môže vyzerať lepšie než polovica ručne písaných tabuliek. Lenže prompt stále nie je metodika.

Ak sú vstupné údaje všeobecné, výsledok bude len elegantné rozvinutie všeobecných predpokladov. AI nevloží do analýzy fakty, ktoré nepozná. Vie ich domyslieť, priemerovať, dopočítať štatistickou podobnosťou. A práve to je v bezpečnosti strojov zradné. Rozhodujúci býva detail, ktorý nie je typický.

Môže to byť prístup do nebezpečného priestoru z miesta, ktoré nie je vidieť z pultu. Môže to byť doznievajúci pohyb po zastavení. Môže to byť ručné vyťahovanie materiálu pri poruche. Môže to byť čistenie, ktoré bez demontáže krytu jednoducho nejde. Môže to byť vlhké, prašné alebo studené prostredie. Môže to byť rozdiel medzi tým, čo je v návode, a tým, čo sa na hale skutočne robí.

Práve preto má najväčšiu hodnotu nie automatická odpoveď, ale kvalitná séria otázok. Dobrá pomôcka nemá sľubovať hotový výsledok. Má nútiť tím pýtať sa:

  • Aké sú hranice stroja a kto k nemu pristupuje?
  • Kto ho čistí, nastavuje, prestavuje a opravuje?
  • Ktoré úlohy sa robia denne a ktoré len pri poruche?
  • Kde vzniká nebezpečná situácia a čo môže spustiť nebezpečnú udalosť?
  • Ktoré ochranné opatrenie sa dá obísť, lebo brzdí výrobu?
  • Ktoré riziko bolo len opísané, ale nebolo reálne znížené?
  • Kde sa dá použiť inherentne bezpečný návrh namiesto prenášania problému na obsluhu?

Keď AI pomáha vytvoriť takýto rámec, je užitočná. Keď preskočí rovno k odpovediam, často len zrýchli starú chybu.

Rozhodovacia stopa je viac než pekná tabuľka

Každé seriózne posudzovanie rizík strojov musí byť spätne čitateľné. Nie iba prehľadné. Čitateľné v tom zmysle, že sa dá obnoviť logika rozhodnutia. Prečo sa daná nebezpečná situácia považovala za významnú. Prečo sa predpokladala určitá závažnosť možnej škody. Prečo sa zvolilo práve toto ochranné opatrenie. Prečo sa nepoužilo iné. Prečo bolo zvyškové riziko prijaté.

Tabuľka ukazuje výsledok. Rozhodovacia stopa ukazuje myslenie. A keď po mesiacoch príde audit, modernizácia, zákaznícka reklamácia alebo analýza incidentu, rozhoduje práve toto. Veta AI to tak vygenerovalo nemá žiadnu váhu. Rovnako ako kedysi nemala váhu veta tak to vyšlo v Exceli.

Ak sa riziko znižuje cez kryt, musí byť jasné, aký prístup rieši. Ak sa používa bezpečnostná funkcia, musí byť jasné, akú nebezpečnú situáciu alebo nebezpečnú udalosť má prerušiť a aké technické požiadavky musí splniť. Ak sa ponecháva zvyškové riziko, musí byť zrejmé, prečo ho už nebolo možné rozumne ďalej znížiť návrhom alebo technickým riešením.

Bez rozhodovacej stopy vzniká dokumentačná hmla. A AI ju vie zahustiť veľmi elegantne. Viac textu, lepší jazyk, technickejší tón. Lenže stále nemusí byť jasné, prečo sa rozhodlo práve tak. Dobrá analýza nie je tá, pri ktorej nikto nekladie otázky. Dobrá analýza je tá, ktorá na otázky dokáže odpovedať.

Rovnako dôležitá je opakovateľnosť procesu. Bez nej sa posudzovanie mení na osobný štýl toho, kto vypĺňa formulár. Jeden inžinier rozbije problém na viac nebezpečných situácií, druhý ho schová do jedného riadka. Jeden bude tlačiť na inherentne bezpečný návrh, druhý sa uspokojí s návodom a školením. AI môže túto nejednotnosť zmenšiť, ale aj zväčšiť. Závisí od toho, či pracuje v pevnej metodike, alebo každý píše vlastný prompt a dostáva trochu inú odpoveď.

Príklad zo slittera: elegantne nesprávna odpoveď

Zoberme jednoduchý príklad z praxe. Na slitteri vidlicový snímač sleduje polohu pásu. Pri zmene šírky materiálu ho treba prestaviť. Problém je v tom, že nastavovanie je v nebezpečnom priestore. Aby operátor snímač posunul, musí ísť tam, kde sú valce, pohybujúce sa časti, miesta vtiahnutia a napnutý materiál.

Čo spraví všeobecný model bez kontextu? Pravdepodobne navrhne LOTO, označenie priestoru, školenie operátora, osobné ochranné prostriedky, návod na prestavenie, kryt a núdzové zastavenie. Znie to rozumne. Lenže môže to byť úplný únik od jadra problému.

Správna otázka totiž nie je, ako opísať riziko vstupu do nebezpečného priestoru. Správna otázka znie, prečo musí operátor pri bežnom prestavení vôbec vstupovať do nebezpečného priestoru. Ak je zmena šírky bežná výrobná činnosť, nemožno ju tváriť ako výnimočný servisný zásah. Nestačí prilepiť LOTO a odškrtnúť riadok.

Najprv treba ísť po príčine. Dá sa snímač prestavovať zvonka? Dá sa použiť vedenie, mechanická stupnica, receptúrové polohy alebo iné usporiadanie detekcie? Dá sa zmeniť konzola, prístup alebo sekvencia prestavenia tak, aby človek nemusel siahať do nebezpečného priestoru? Toto je presne miesto, kde má nastúpiť inherentne bezpečný návrh.

Až keď sa nedá odstrániť potreba vstupu konštrukčnou zmenou, prichádzajú na rad ďalšie ochranné opatrenia. Blokovací kryt, nastavovací režim, obmedzená rýchlosť, držané ovládanie, povoľovacie zariadenie, bezpečné zastavenie, LOTO, návod, školenie. Poradie je dôležité. ISO 12100 nezačína školením. Začína otázkou, či sa dá ohrozenie odstrániť alebo riziko znížiť návrhom.

Tu sa láme rozdiel medzi AI ako generátorom dokumentu a AI ako podporou procesu. Generátor napíše elegantný zoznam. Podpora procesu položí nepríjemnú, ale správnu otázku: musí tam človek vôbec chodiť?

AI v dokumentácii verzus AI v bezpečnostnej funkcii

Treba veľmi jasne oddeliť dve veci. Prvá je AI ako nástroj, ktorý pomáha inžinierovi pripraviť posudzovanie rizík strojov, kontrolovať úplnosť a písať odôvodnenia. Druhá je AI alebo strojové učenie priamo v stroji, najmä ak má taký systém zabezpečovať bezpečnostnú funkciu. To už je iná liga technicky aj regulačne.

Nariadenie (EÚ) 2023/1230 ide v tejto oblasti priamo k veci. Výrobca musí vykonať posúdenie rizika, určiť uplatniteľné požiadavky a navrhnúť stroj tak, aby ohrozenie odstránil alebo riziko minimalizoval. Zodpovednosť je na výrobcovi, nie na modeli. Zároveň však nariadenie osobitne rieši bezpečnostné časti a systémy so samomeniacim sa správaním využívajúcim strojové učenie, ak zabezpečujú bezpečnostnú funkciu. Dôvod je jednoduchý: závislosť od dát, neprehľadnosť, autonómia a prepojenosť môžu zvýšiť pravdepodobnosť aj závažnosť škody. Preto sa tu nehrá na marketing. Tu sa rieši zhoda, overovanie a účasť notifikovanej osoby tam, kde to predpis vyžaduje.

AI Act túto logiku ešte zosilňuje. Ak je systém AI použitý ako bezpečnostná časť výrobku alebo ak sám spadá do regulovaného výrobku, môže ísť o vysokorizikový systém. A pre vysokorizikové systémy AI Act nechce pekný príbeh. Chce nepretržitý proces riadenia rizika počas celého životného cyklu, identifikáciu známych aj rozumne predvídateľných rizík, zohľadnenie určeného použitia aj rozumne predvídateľného nesprávneho použitia, ľudský dohľad, primeranú presnosť, robustnosť a kybernetickú bezpečnosť.

To je zásadná hranica. AI, ktorá pomáha inžinierovi klásť lepšie otázky, je pomocný nástroj. AI, ktorá rozhoduje o správaní stroja v situácii súvisiacej s bezpečnosťou, je prvok, ktorého chyba môže viesť k škode. A vtedy už nestačí veta, že model má vysokú úspešnosť. V bezpečnosti totiž nejde o to, ako často systém funguje správne. Ide o to, čo sa stane vtedy, keď sa pomýli, keď sa zmenia dáta, keď sa zhorší osvetlenie, pribudnú vibrácie, znečistenie, netypický materiál alebo porucha snímača.

To nie sú akademické otázky. To sú otázky z haly. A odpovede musia byť technicky obhájiteľné, nie len štatisticky pekné.

Záver: ak AI nepýta nepríjemné otázky, nepomáha

AI môže byť pri posudzovaní rizík strojov veľmi užitočná. Dokáže urýchliť prácu, sprehľadniť údaje a upozorniť na medzery, ktoré by tím prehliadol. Ale len vtedy, keď stojí na pevnom procese a na reálnych dátach o konkrétnom stroji. Bez toho vzniká len rýchlejšia a uhladenejšia verzia starej chyby.

V bezpečnosti strojov stále platí jednoduchá pravda. Dokument je stopa procesu, nie jeho náhrada. Krásna tabuľka nie je automaticky analýza. Zoznam ohrození nie je automaticky posudzovanie rizík strojov. A odpoveď z AI nie je automaticky rozhodnutie, ktoré unesie audit, modernizáciu alebo otázku po nehode.

Ak má AI v tomto odbore pomáhať, musí tlačiť tím k lepším otázkam, k lepšiemu zberu kontextu a k lepšej rozhodovacej stope. Ak len vyrába presvedčivý text bez procesu, nevyrába bezpečnosť. Vyrába dojem bezpečnosti. A to je presne ten druh dojmu, ktorý býva drahý.

Najčastejšie otázky

Môže AI pri posudzovaní rizík strojov nahradiť inžiniera?

Nie. AI môže urýchliť zhromažďovanie podkladov, usporiadanie poznámok a úpravu tabuľky, ale nenahrádza analýzu požadovanú normou ISO 12100. Model nepozoruje stroj, nepozná reálne úlohy operátora a nerozumie obmedzeniam projektu, ak mu ich nikto neposkytne.

Posúdenie rizika je proces: určenie obmedzení stroja, identifikácia nebezpečenstiev, odhad rizika, hodnotenie rizika a znižovanie rizika. AI môže byť nástrojom v tomto procese, ale nie jeho vykonávateľom z odborného hľadiska.

Môže byť posudzovanie rizika s využitím AI v súlade so ISO 12100?

Áno, ale iba vtedy, keď AI podporuje už vykonanú analýzu, a nie ju predstiera. Zhoda s ISO 12100 nevyplýva z pekného usporiadania tabuľky, ale z toho, či sa dá zrekonštruovať sled úvah vedúci k návrhovým rozhodnutiam.

Ak sa záznamy vzťahujú na konkrétnu ohrozenú osobu, úlohu, fázu životného cyklu stroja, nebezpečnú situáciu a nebezpečnú udalosť, a použité ochranné opatrenia sú overené, materiál pripravený s pomocou AI môže byť užitočný. Samotné generovanie textu nevytvára zhodu.

Prečo zoznam hrozieb spojených s AI ešte nie je posúdením rizika?

Veď zoznam nebezpečenstiev je len začiatok. Samotný záznam typu mechanické nebezpečenstvo, pomliaždenie, pevný ochranný kryt nevysvetľuje, kto je vystavený, pri akej činnosti, ako často dochádza k prístupu a čo iniciuje nebezpečnú udalosť.

V praxi môžu dva stroje toho istého typu vyžadovať úplne odlišné zníženie rizika, ak sa odlišne vykonáva prestavovanie, odstraňovanie zaseknutí, čistenie, nastavovanie alebo servisný prístup. Tabuľka bez kontextu sa ľahko stáva atrapou procesu.

Kedy AI pri hodnotení rizík strojov skutočne pomáha?

Najväčšiu hodnotu prináša AI tam, kde treba rýchlo usporiadať expertné znalosti, nie ich nahradiť. Dobre sa osvedčuje ako redakčná a analytická podpora po zhromaždení údajov zo stroja.

  • vytvorenie predbežnej mapy nebezpečenstiev pre známy typ stroja,
  • usporiadanie pozorovaní z prehliadky, fotografií a poznámok,
  • dohliadanie na to, aby sa nevynechali fázy života stroja a typické úlohy,
  • zjednocovanie jazyka dokumentácie po rozhodnutiach prijatých tímom.
Aké údaje treba poskytnúť AI, aby výsledok dával zmysel?

Čím všeobecnejší je vstupný opis, tým všeobecnejší a zdanlivejší je výsledok. Aby malo AI pri posudzovaní rizika strojov zmysel, treba uviesť obmedzenia stroja, spôsob používania a reálne interakcie človeka so strojom.

  • roly ohrozených osôb,
  • úlohy v každej fáze životného cyklu stroja,
  • pracovné režimy, prístupové miesta a zdroje energie,
  • frekvenciu zásahov, zaseknutí, prestavovaní a údržby,
  • existujúce ochranné opatrenia a známe spôsoby obchádzania ochranných zariadení.

Pripravení na zmenu?

Založte si účet a vygenerujte dokumentáciu v súlade s predpismi za 15 minút.

Spustiť bezplatný test Bez kreditnej karty • 14 dní zdarma