
Журнал "Программная инженерия"
Теоретический и прикладной научно-технический журнал
ISSN 2220-3397
Номер 12 2025 год
Внедрение моделей машинного обучения в системы поддержки принятия решений требует совершенствования методов объяснимого искусственного интеллекта, особенно в задачах с высокой ценой ошибочных решений. Предложен новый метод формирования понятных для пользователей объяснений выводов и прогнозов, формируемых моделями машинного обучения. Основная идея метода заключается в преобразовании вектора локальных вкладов признаков, полученного с использованием алгоритма локального апостериорного объяснения, в нечетко-логическое правило с лингвистическими переменными. Представление объяснений в виде правил позволяет повысить объяснимость и прозрачность модели для пользователей систем поддержки принятия решений. Метод апробирован в задаче технической диагностики трансформаторного оборудования на реальных данных.