Изкуствен интелект при оценката на риска на машините
TL;DR
  • Убедителна таблица от AI не е автоматично оценка на риска по ISO 12100.
  • Рискът се оценява през реални задачи, фази от жизнения цикъл, опасни ситуации и опасни събития, а не само чрез списък с опасности.
  • Най-голямата опасност е да се обърка документът с процеса: AI ускорява и прави по-убедително старото копиране на шаблони.
  • AI е полезен като помощник при пълни данни за конкретната машина, операторите, режимите, достъпа, отказите и реалната употреба.
  • Регламент (ЕС) 2023/1230 изисква реална оценка на риска и избор на мерки за намаляване на риска, не документ с професионален вид.

AI при оценка на риска на машини вече влиза там, където години наред царуваха Excel, контролни списъци и документи, копирани от проект в проект. Пишеш името на машината, добавяш няколко общи данни и след секунди получаваш нещо, което изглежда убедително: опасности, последствия, мерки, нива на риска, остатъчен риск. На пръв поглед всичко е подредено. Само че добре изглеждащата таблица не е автоматично оценка на риска при машини по ISO 12100. Истинската стойност не е в броя редове, цветовете и техническия стил. Тя е в това дали може да се проследи мисленето, довело до конкретните проектни решения. Ако няма следа на решенията, имате документ. Не непременно анализ.

И тук е неприятната истина: проблемът не започна с AI. Той просто стана по-бърз, по-гладък и по-убедителен.

AI при оценка на риска на машини не решава стария проблем

Години наред слабите оценки на риска изглеждаха по сходен начин: списък с общи опасности, няколко типови последствия, стандартни мерки и задължителен спад на риска в последната колона. Документ имаше. Клетките бяха попълнени. Само че често липсваше най-важното от ISO 12100: реалната връзка между опасността, задачата на човека, фазата от жизнения цикъл, опасната ситуация и опасното събитие.

Някой изобщо гледал ли е как операторът отстранява задръстване? Някой анализирал ли е почистването, настройването, ръчния режим, сервизния достъп, поддръжката и разумно предвидимата неправилна употреба? Или просто е трябвало редът да бъде „затворен“ в таблицата?

Проблемът никога не е бил самият Excel. Excel е инструмент. Проблемът е, че с него много лесно се прави декор на процес, който не е извършен. Пишеш „движещи се части“, „смачкване“, „неподвижен предпазител“, „инструкция“, „обучение на оператора“ и документът започва да изглежда инженерно. Само че познатата подредба на колоните не доказва, че е направена оценка на риска.

Днес AI позволява същата грешка, но по-бързо и по-красиво. Преди личеше, че някой е преписвал. Сега текстът може да звучи така, сякаш е писан от опитен специалист. И точно затова рискът е по-голям. Впечатление за анализ не е анализ.

ISO 12100 не започва от списък с опасности

Една от най-честите грешки е стартът от въпроса: „Какви опасности има машината?“. Звучи логично. Има задвижвания — значи има механични опасности. Има захранване — значи има електрически опасности. Има горещи части — значи има риск от изгаряне. Таблицата тръгва да расте. Но това още не е оценка на риска при машини. Това е каталог на потенциални опасности.

ISO 12100 не гледа машината като статичен сбор от опасни елементи. Гледа я в отношение към човека, който ще я транспортира, инсталира, пуска, настройва, почиства, поддържа, ремонтира, пренастройва, диагностицира и извежда от експлоатация. Опасността сама по себе си не описва риска. Рискът се появява там, където реален човек, в реална задача и при реални условия може да попадне в опасна ситуация.

Затова по-добрият въпрос е друг: кой, по време на каква задача, в коя от фазите от жизнения цикъл и при какви условия може да попадне в опасна ситуация? След това идва следващото ниво: какво може да задейства опасното събитие? Неочакван пуск? Достъп до движещи се части? Грешка в логиката на управление? Остатъчна енергия? Ръчно отстраняване на заседнал материал? Загуба на видимост? Лошо проектиран достъп?

Тук има и още един важен нюанс. Не всеки сценарий се описва с удобната линейна схема „задача → опасна ситуация → опасно събитие → мярка“. Понякога изходната точка е задачата на оператора. Понякога изходната точка е събитие в машината или средата — например отказ, загуба на стабилност, скъсан маркуч, отпадане на захранване или освобождаване на енергия. Добрата оценка трябва да поема и двата начина на мислене: по задачи и по събития. Ако насилите всеки сценарий да влезе в един и същи шаблон, ще пропуснете точно онова, което после води до инцидент.

Регламент (ЕС) 2023/1230 също не иска документ, който прилича на оценка на риска. Той изисква производителят да направи оценка на риска, за да определи приложимите съществени изисквания за здраве и безопасност и мерките, нужни за намаляване на риска. На практика това означава ограничения на машината, използване по предназначение, разумно предвидима неправилна употреба, идентифициране на опасности, оценяване на риска и намаляване на риска. Няма пряк път през красивата формулировка.

Къде AI при оценка на риска на машини помага реално

AI има място в процеса. Но като помощник, не като автор на отговорността. Ако вече имате данни за конкретната машина, AI може да свърши полезна работа: да провери пълнотата на анализа, да подскаже пропуснати сценарии, да предложи контролни въпроси, да подреди документацията и да помогне при формулирането на обосновки.

Това работи само ако системата получи контекст. Не общ контекст от типа „опаковъчна машина“, а конкретика:

  • ограничения на машината;
  • фази от жизнения цикъл;
  • режими на работа и преходи между тях;
  • реални задачи на оператор, настройчик и поддръжка;
  • точки на достъп и ограничена видимост;
  • източници на енергия и поведение при отказ;
  • места на типични задръствания и ръчни намеси;
  • условия на средата и организация на работа.

При такъв вход AI може да попита нещо смислено: Отчетено ли е почистването? Операторът влиза ли в опасната зона при отстраняване на задръстване? Тази задача сервизна ли е на теория, а в практиката ежедневна ли е? Намалявате ли риска чрез безопасно по същество проектиране, чрез техническа мярка или само чрез информация към ползвателя?

Без тези данни AI не анализира. Той отгатва. А отгатването в безопасност на машините изглежда интелигентно само до първата злополука.

Промптът не е методика по ISO 12100

Много е изкушаващо да се мисли така: щом резултатът е слаб, значи промптът не е бил достатъчно добър. Добавяш „вземи предвид ISO 12100“, „обхвани целия жизнен цикъл“, „включи остатъчен риск“ и получаваш по-структуриран отговор. Да, формата често става по-добра. Но промптът не е методика.

Ако входните данни са общи, резултатът пак ще бъде общ. AI не добавя факти, които не знае. Той ги предполага, усреднява или взема типови сценарии. А точно нетипичният детайл често решава всичко: панелът е от грешната страна и операторът наблюдава движението от място, което никой не е предвидил; предпазителят е тежък и след две седмици започват да го оставят отворен; инструкцията изисква двама души, но в реалната смяна работи един; пренастройката, описана като „от време на време“, реално се прави по няколко пъти на ден.

Откъде AI да знае това? Не от името на машината. Не от добре звучащ промпт. Не от обща спецификация.

Затова добрият процес не започва с команда „генерирай таблица“. Започва с оглед на машината, разговор с конструкторите, наблюдение на реалната работа, проверка какво всъщност правят операторите и какво наистина се случва при задръстване, чистене, проба, пренастройка и отказ. После AI може да помогне. Преди това — не.

AI при оценка на риска на машини и следата на решенията

Всяка сериозна оценка на риска трябва да може да се възстанови. Не просто да се прочете, а да се възстанови. Това означава след време да е ясно защо даден риск е оценен така, защо определена опасна ситуация е приета за съществена, защо е избрана точно тази мярка и защо остатъчният риск е сметнат за приемлив.

Таблицата показва резултата. Не показва мисленето. А точно мисленето е критично, когато дойде одит, модернизация, спор с клиент, проверка след инцидент или въпросът „защо решихте така?“. Отговорът „AI го генерира“ няма стойност. Същата стойност няма и старото „така излезе в Excel“.

Ако рискът е намален чрез предпазител, трябва да е ясно каква функция изпълнява този предпазител, срещу какъв достъп защитава и коя задача на човека е взета предвид. Ако е приложена функция за безопасност, трябва да е ясно кой сценарий прекъсва и какви технически изисквания покрива. Ако е оставен остатъчен риск, трябва да е ясно защо не е възможно допълнително намаляване на риска чрез проектно решение или техническа защита.

AI може да помага за по-последователен език, за проверка на несъответствия и за структуриране на обосновките. Но ако процесът липсва, той просто произвежда по-елегантна мъгла. Повече текст не значи повече инженерна стойност.

Тук идва и темата за повторяемия процес. Без стабилна структура решенията започват да зависят от стила на човека, който попълва документа, от последния шаблон и от това дали днешният промпт е по-добър от вчерашния. В безопасност на машините това не е дребен проблем. Различията между две оценки трябва да идват от различията между машините, а не от случайността на инструмента.

Пример от практиката: вилков сензор на слитер и „гениалният“ отговор на AI

Да вземем напълно реалистичен сценарий. На слитер вилков сензор следи положението на лентата. При смяна на ширината операторът трябва да премести сензора. Само че регулирането е в опасна зона. За да го направи, човек влиза там, където има валове, ролки, точки на увличане, опъната лента или режещи елементи.

Какво ще предложи AI при общ промпт? Обикновено нещо напълно правдоподобно: процедура LOTO, обучение на оператора, маркиране на опасната зона, инструкция за пренастройка, предпазители, авариен стоп. Звучи професионално. Само че това може да е класическо бягство към документацията.

Правилният въпрос не е „как да опишем риска от влизане в зоната?“. Правилният въпрос е: защо операторът изобщо трябва да влиза в опасната зона, за да изпълни нормална, повтаряема производствена операция? Ако смяната на ширината е редовна дейност, тя не бива да се третира като изключителна сервизна намеса.

Тук ISO 12100 е пределно ясен по логика, дори когато практиката често го прескача. Първо идва безопасно по същество проектиране. Може ли сензорът да се регулира извън опасната зона? Може ли да има външен механизъм, скала, позициониране по рецепта, друг принцип на детекция, различна геометрия на конзолата, различен достъп? Ако отговорът е „да“, това е посоката. Не „обучете оператора и продължете“.

Едва когато нуждата от достъп не може да бъде разумно премахната с проектно решение, идват следващите стъпки: блокиращ предпазител, режим за настройка, ограничена скорост, управление със задържане, безопасно спиране, процедура LOTO, инструкция, обучение. Последователността има значение. Не се започва от последната колона.

Точно тук се вижда границата между AI като генератор на документация и AI като помощник в процеса. Генераторът казва: „добавете LOTO и обучение“. Помощникът пита: „трябва ли тази операция изобщо да изисква влизане в опасната зона?“. Вторият въпрос струва повече от двайсет красиво попълнени реда.

AI като помощ при документацията не е AI във функция за безопасност

Тук трябва да разделим две различни теми. Първата е използването на AI като инструмент за подпомагане на инженера при оценка на риска при машини. Втората е използването на AI или машинно обучение в самата машина, когато системата участва във функция за безопасност. Това вече е съвсем друга категория риск и съвсем друго ниво на регулаторна тежест.

Регламент (ЕС) 2023/1230 поставя особен фокус върху елементи за безопасност и системи със самопроменящо се поведение, използващи машинно обучение, когато те осигуряват функция за безопасност. Причината е проста: зависимост от данни, ограничена прозрачност, автономност и свързаност могат да увеличат вероятността и тежестта на вредата. В такава зона не стига уверението „моделът обикновено се справя добре“. Нужни са доказуема съответствие, техническа документация, изпитвания, ограничения, човешки надзор и оценяване на съответствието с участието на нотифициран орган, когато е приложимо.

AI Act усилва същата логика. Когато AI е елемент за безопасност на продукт, обхванат от хармонизираното законодателство на ЕС, и за продукта се изисква оценяване на съответствието от трета страна, говорим за система с висок риск. Това носи изисквания за управление на риска през целия жизнен цикъл, за подходяща точност, устойчивост, киберсигурност и ефективен човешки надзор.

На инженерски език това означава следното: не е достатъчно да знаете, че алгоритъмът е „точен в 98% от случаите“. Трябва да знаете какво става в останалите 2%. Какво се случва при замърсен датчик, различно осветление, необичаен материал, вибрации, промяна в средата, отказ на входен елемент или поведение на оператор, което не е било в обучаващите данни? Ако системата бърка, как машината преминава в безопасно състояние? Това са въпросите, които отделят презентацията от безопасността.

Как да използвате AI без да си купувате илюзия за безопасност

Практичният подход е прост, но изисква дисциплина.

  • Първо съберете фактите от машината, не от шаблона.
  • Структурирайте процеса: ограничения, задачи, фази от жизнения цикъл, опасни ситуации, опасни събития, мерки, остатъчен риск, обосновка.
  • Използвайте AI за контролни въпроси, проверка на пълнотата и редакция на текста, не за автоматично инженерно заключение.
  • Пазете следа на решенията. Ако след шест месеца не можете да обясните „защо така“, значи процесът е слаб.
  • Не прехвърляйте отговорността на инструмента. Отговорността остава при производителя, проектанта, интегратора и този, който подписва документацията.

Изводът е ясен. AI може да бъде добър помощник в безопасност на машините. Може да ускори работата и да изкара на светло пропуски, които човек е подминал. Но не може да замени огледа на машината, разговора с хората, инженерната преценка и твърдото решение дали рискът се намалява реално, или само е описан по-красиво.

В този сектор документът е следа от процеса. Не негов заместител. Ако го забравите, AI няма да ви спаси. Само ще направи слабата оценка да изглежда по-убедително.

Често задавани въпроси

Може ли ИИ да замени инженера при оценката на риска на машините?

Не. AI може да ускори събирането на материал, подреждането на бележки и редактирането на таблицата, но не замества анализа, изискван от ISO 12100. Моделът не наблюдава машината, не познава реалните задачи на оператора и не разбира ограниченията на проекта, ако никой не му ги предостави.

Оценката на риска е процес: определяне на ограниченията на машината, идентификация на опасностите, оценяване на риска, оценка на риска и намаляване на риска. AI може да бъде инструмент в този процес, но не и негов изпълнител по същество.

Може ли оценка на риска с ИИ да бъде в съответствие с ISO 12100?

Да, но само когато AI подпомага вече извършен анализ, а не го имитира. Съответствието с ISO 12100 не произтича от добре оформена таблица, а от това дали може да се възстанови ходът на разсъждение, водещ до проектни решения.

Ако записите се отнасят до конкретно изложено лице, задача, етап от жизнения цикъл на машината, опасна ситуация и опасно събитие, а приложените защитни мерки са верифицирани, материалът, изготвен с помощта на AI, може да бъде полезен. Самото генериране на текст не създава съответствие.

Защо списъкът с опасности, свързани с ИИ, все още не е оценка на риска?

Защото списъкът на опасностите е само началото. Самото вписване от типа механична опасност, смачкване, неподвижен предпазител не обяснява кой е изложен на опасност, по време на каква дейност, колко често се осъществява достъп и какво инициира опасното събитие.

На практика две машини от един и същ тип могат да изискват напълно различно намаляване на риска, ако пренастройките, отстраняването на заклинвания, почистването, регулирането или сервизният достъп протичат по различен начин. Таблица без контекст лесно се превръща в имитация на процеса.

Кога ИИ реално помага при оценката на риска на машините?

Най-голяма стойност ИИ носи там, където трябва бързо да се структурира експертното знание, а не да се замества. Добре се представя като редакционна и аналитична подкрепа след събиране на данни от машината.

  • създаване на предварителна карта на опасностите за познат тип машина,
  • структуриране на наблюденията от прегледа, снимките и бележките,
  • следене да не се пропускат фазите от жизнения цикъл на машината и типичните задачи,
  • уеднаквяване на езика на документацията след взетите от екипа решения.
Какви данни трябва да се подадат на ИИ, за да има смисъл резултатът?

Колкото по-общо е входното описание, толкова по-общ и привиден е резултатът. За да има смисъл използването на ИИ при оценката на риска на машини, трябва да се посочат ограниченията на машината, начинът ѝ на използване и реалните взаимодействия между човека и машината.

  • ролите на лицата, изложени на риск,
  • задачите във всяка фаза от жизнения цикъл на машината,
  • работните режими, точките за достъп и източниците на енергия,
  • честотата на намесите, заклинванията, пренастройванията и поддръжката,
  • съществуващите защитни мерки и известните начини за заобикаляне на защитните устройства.

Готови ли сте за промяна?

Създайте профил и генерирайте съответстваща документация за 15 минути.

Започнете безплатния тест Без кредитна карта • 14 дни безплатно