Актуальные вопросы этики применения искусственного интеллекта в промышленности
Для цитирования: Чесалов А.Ю. Актуальные вопросы этики применения искусственного интеллекта в промышленности. // «Научный поиск: фундаментальные и прикладные аспекты» (2026, Петрозаводск): сборник статей III Международной научно-практической конференции (29 января 2026 г.). — Петрозаводск : МЦНП «НОВАЯ НАУКА», 2026. — С. 11-17. DOI 10.46916/02022026-6-978-5-00215-995-6
***
Аннотация. В работе исследуются актуальные этические проблемы, возникающие при интеграции систем искусственного интеллекта (ИИ) в промышленный сектор. На основе сравнительного анализа ключевых международных и национальных регуляторных и этических рамок — Рекомендаций ЮНЕСКО по этике ИИ, китайской Спецификации этики ИИ нового поколения, Закона ЕС об искусственном интеллекте и российского Кодекса этики в сфере ИИ — выделены основные риски и сформулированы базовые принципы ответственного проектирования, внедрения и эксплуатации промышленных ИИ-систем. Особый фокус сделан на требованиях к безопасности, прозрачности, объяснимости и обеспечению человеческого контроля в контексте цифровой трансформации современного производства.
Actual questions of the ethics of the application of artificial intelligence in industry
Chesalov Alexander Yurievich. CEO Atlansis Software LLC
Annotation. The work examines topical ethical problems that arise during the integration of artificial intelligence (AI) systems into the industrial sector. On the basis of a comparative analysis of the key international and national regulatory and ethical frameworks — the UNESCO Recommendations on AI ethics, the Chinese Specification of AI ethics of the new generation, the EU Law on Artificial Intelligence and the Russian Code of Ethics in the field of AI — the main risks are highlighted and the basic principles of responsible design, implementation and operation of industrial AI-systems are formulated. A special focus is made on the requirements for safety, transparency, clarity and the provision of human control in the context of the digital transformation of modern production.
Key words: artificial intelligence, ethics, responsible artificial intelligence, trusted artificial intelligence.
Введение
Цифровизация промышленности, определяющая контуры Индустрии 4.0, неразрывно связана с внедрением технологий искусственного интеллекта (ИИ). Применение ИИ для оптимизации логистики, предиктивной аналитики оборудования, контроля качества и управления энергосистемами дает значительный рост эффективности и конкурентоспособности. Однако параллельно с потенциальными выгодами возникает комплекс серьезных этических и социальных вызовов, игнорирование которых может привести к катастрофическим последствиям — от масштабных техногенных аварий до системных социально-трудовых кризисов [[i], [ii], [iii]].
Инциденты, связанные с фатальными ошибками промышленных роботов или неадекватным поведением автономных систем, демонстрируют, что этические вопросы применения ИИ в промышленности перешли из плоскости теоретических дискуссий в область практической императивной необходимости. Речь идет о формировании новой парадигмы — «доверенного» промышленного искусственного интеллекта, чья работа на всех этапах жизненного цикла должна быть предсказуемой, безопасной, объяснимой и подконтрольной человеку.
Мировая практика уже знает примеры фатальных инцидентов с участием автономных систем. В Южной Корее промышленный робот, не распознав в сотруднике с коробкой живого человека, причинил ему смертельную травму. Другим тревожным прецедентом стал смоделированный ВВС США эксперимент, в ходе которого беспилотник с ИИ, идентифицировав своего оператора как помеху для миссии, принял решение о его ликвидации [[iv], [v]].
Цель исследования — систематизировать этические риски применения ИИ в промышленности и на основе синтеза современных международных и национальных подходов предложить структурированную систему принципов для их минимизации на уровне конкретных предприятий и отраслей.
Основная часть
Анализ практики внедрения и существующих регуляторных документов позволяет выделить несколько специфических для промышленного контекста групп рисков [[vi], [vii], [viii], [ix], [x]]:
- Риски физической безопасности и защищенности.Наиболее критичная категория. Сбой или злонамеренная атака на ИИ-систему, управляющую энергоблоком, химическим реактором или автоматизированной линией, представляет прямую угрозу жизни персонала, экологической стабильности и экономической устойчивости предприятия. Отдельную и крайне сложную подкатегорию образуют риски в области оборонно-промышленного комплекса, связанные с автономными боевыми системами.
- Проблема «черного ящика» и отсутствие объяснимости.Глубокие нейронные сети, используемые для прогнозирования отказов или оптимизации процессов, часто не позволяют понять логику принятия решений. В промышленности, где каждое решение имеет стоимостное или безопасное измерение, слепое доверие к необъяснимому выводу алгоритма неприемлемо. Инженер должен иметь возможность верифицировать рекомендацию системы предиктивного обслуживания.
- Смещения в данных и алгоритмах.Если обучающая выборка для модели, предсказывающей остаточный ресурс оборудования, не репрезентативна (например, включает данные только от одного производителя или для узкого диапазона условий), это приведет к систематическим ошибкам при работе. Последствия — ложные срабатывания, необоснованные затраты на обслуживание или, что хуже, пропуск реальной аварийной ситуации.
- Социально-трудовые и экономические последствия.Автоматизация на основе ИИ трансформирует рынок труда, вытесняя рутинные операции. Этичный подход требует не массового сокращения кадров, а реализации программ переподготовки, повышения квалификации и формирования новой корпоративной культуры, ориентированной на синергию человека и интеллектуальной системы.
- Проблема распределения ответственности.При причинении ущерба автономной промышленной системой возникает правовой вакуум в вопросе ответственности: на ком лежит вина — на разработчике алгоритма, производителе оборудования, интеграторе, владельце предприятия или самом операторе? Четкое нормативное закрепление цепочек ответственности — фундаментальная задача для регуляторов.
На основе анализа Рекомендаций ЮНЕСКО (как базового гуманистического документа), китайской Спецификации (как свода лучших практик) [[xi], [xii], [xiii]], EU AI Act (как жесткого регуляторного стандарта) и российского Кодекса (как декларации о намерениях) можно сформулировать семь основных взаимосвязанных принципов этичного ИИ:
- Безопасность и защищенность.Обязательное проведение оценки рисков на всех стадиях жизненного цикла ИИ-системы. Внедрение должно включать резервные механизмы ручного управления, постоянный мониторинг аномалий и комплексные меры кибербезопасности для отражения внешних атак и внутренних угроз.
- Прозрачность и объяснимость.Требование к разработке интерпретируемых моделей и предоставлению пользователю (оператору, инженеру) информации о том, на каком основании система приняла то или иное решение. Например, EU AI Act определяет градации уровня требуемой прозрачности в зависимости от критичности применения.
- Справедливость и недискриминация.В промышленном контексте реализуется через борьбу со смещениями: использование репрезентативных и качественных обучающих данных, охватывающих все возможные сценарии, и проведение регулярных аудитов алгоритмов на предмет скрытых предубеждений.
- Подконтрольность и подчиненность человеку.Ключевой императив. Критические решения (остановка производства, изменение опасных технологических параметров) должны санкционироваться человеком. Даже автономные системы должны иметь четко прописанные уровни автономии с возможностью немедленного вмешательства оператора.
- Ответственность и подотчетность.Внедрение ИИ должно сопровождаться четкой внутренней нормативной базой, однозначно разграничивающей зоны ответственности между всеми участниками цепочки создания стоимости. Актуальной становится задача разработки механизмов страхования рисков, связанных с работой ИИ.
- Человеко-ориентированный и гуманистический подход.Технология должна выступать как инструмент расширения человеческих возможностей, а не их замены. ИИ призван взять на себя рутинный мониторинг и анализ, высвобождая человеческий интеллект для решения творческих, стратегических и оптимизационных задач.
- Конфиденциальность и целостность данных.Особенно важно для предиктивных систем, обучаемых на чувствительных производственных данных. Применение принципа «Privacy by Design» (защита конфиденциальности на этапе проектирования) и использование методов, препятствующих извлечению исходных данных из обученных моделей, являются обязательными.
Для внедрения этих принципов промышленному предприятию необходимо:
- Разработать пакет внутренних нормативных документов: политики, регламенты, методики оценки этических последствий внедрения ИИ.
- Интегрировать требования этики в систему управления качеством и систему управления рисками, особенно для систем высокого риска.
- Руководствоваться актуальными национальными стандартами (ГОСТ Р 59276, ГОСТ Р 59898, ПНСТ 964 и др.) в части обеспечения доверия и оценки качества ИИ-систем.
- Создать этический комитет или назначить ответственных специалистов для проведения аудитов алгоритмов и контроля за соблюдением установленных принципов.
- Инвестировать в обучение и переподготовку персонала для формирования компетенций работы в гибридной «человек-ИИ» среде.
Заключение
Этические аспекты применения искусственного интеллекта в промышленности являются не бюрократическим барьером, а стратегическим фундаментом для создания безопасных, устойчивых и конкурентоспособных производств. Формирование «доверенного» промышленного ИИ, основанного на принципах безопасности, прозрачности и человеческого контроля, — это комплексная инженерно-управленческая задача.
Для российской промышленности следование этическим нормам, синтезированным из лучших мировых практик, представляет собой возможность совершить качественный скачок, повысив не только технологический, но и репутационный капитал. Доверие партнеров, регуляторов и общества, основанное на демонстрации ответственного подхода, становится ключевым нематериальным активом в глобальной конкуренции.
Таким образом, этика ИИ перестает быть предметом абстрактных дискуссий и превращается в конкретную дорожную карту для научного, инженерного и управленческого сообществ, нацеленную на построение индустрии будущего, где технологический прогресс неразрывно связан с социальной ответственностью и безопасностью человека.
[i] . Чесалов А.Ю. Этические аспекты использования искусственного интеллекта в промышленности // Автоматизация в промышленности. – 2025. — №10. – С. 33 – 39.
[ii] . Чесалов А.Ю. Применение прорывных технологий искусственного интеллекта в промышленных экосистемах Индустрии 4.0. // Перспективные интеграционные процессы в мировой экономике: нооподход / Сборник материалов IX Санкт-Петербургского международного экономического конгресса (СПЭК-2024) / Под общ. ред. С.Д. Бодрунова. Том 2. — М.: ИНИР им. С.Ю. Витте, 2024. — С. 176-184.
[iii] . Палюх Б.В., Чесалов А.Ю. Роль современных технологий искусственного интеллекта в создании и развитии автоматизированных систем прогнозируемого и предписывающего обслуживания в промышленности // Современная наука: актуальные проблемы теории и практики: серия «Естественные и Технические науки». – 2025. — №5. – С. 147 – 155. DOI 10.37882/2223-2966.2025.05.29
[iv] . Робот в Южной Корее убил человека, приняв его за коробку с овощами/ [Электронный ресурс] 2023 URL: https://trends.rbc.ru/trends/industry/654ca60c9a794723b727dbc3 (дата обращения: 21.08.2025)
[v] . US air force denies running simulation in which AI drone ‘killed’ operator. [Электронный ресурс] 2023 URL: https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test (дата обращения: 21.08.2025)
[vi] . EU AI Act: first regulation on artificial intelligence. [Электронный ресурс] 2024 URL: https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence (дата обращения: 20.08.2025)
[vii] . Чесалов А.Ю. Этика и искусственный интеллект // Современные информационные системы — 2022. — № 1 (19). — С. 52 — 59.
[viii] . Доклад комиссии по социальным и гуманитарным наукам (SHS). [Электронный ресурс] 2021 URL: https://unesdoc.unesco.org/ark:/48223/pf0000379920_rus.page=16 (дата обращения: 20.01.2026)
[ix] . Предварительное исследование возможности подготовки нормативного акта по вопросам этики применения искусственного интеллекта. [Электронный ресурс] 2019 URL: https://unesdoc.unesco.org/ark:/48223/pf0000369455_rus (дата обращения: 20.01.2026)
[x] . Рекомендация по этике искусственного интеллекта. [Электронный ресурс] // en.unesco.org. URL: https://en.unesco.org/artificial-intelligence/ethics#recommendation (дата обращения: 20.01.2026)
[xi] . Китай разработал этические принципы для регулирования искусственного интеллекта. [Электронный ресурс] 2021 URL: https://www.techinsider.ru/technologies/news-755323-kitay-razrabotal-eticheskie-principy-dlya-regulirovaniya-iskusstvennogo-intellekta/ (дата обращения: 20.08.2025)
[xii] . В Китае издан этический кодекс для искусственного интеллекта. [Электронный ресурс] 2021 URL: https://letaibe.media/news/v-kitae-izdan-eticheskij-kodeks-dlya-iskusstvennogo-intellekta/ (дата обращения: 20.08.2025)
[xiii] . В Китае выпустили кодекс этических принципов для искусственного интеллекта. [Электронный ресурс] 2021 URL: https://rg.ru/2021/10/04/v-kitae-vypustili-kodeks-eticheskih-principov-dlia-iskusstvennogo-intellekta.html (дата обращения: 20.08.2025)