ИИ в промышленных приложениях
Опубликовано: 21.10.2023
ИИ в промышленных приложениях
Решения на основе искусственного интеллекта (ИИ) уже используются повсеместно. На заводах и в других промышленных предприятиях искусственный интеллект ищет дефекты продукции. Направляет роботов по производственному цеху. Искусственный интеллект может сказать вам, когда производственная линия вот-вот выйдет из строя, и как устранить проблему до того, как она произойдет. ИИ помогает инженерам оптимизировать производство или сократить отходы. Системы искусственного интеллекта могут способствовать повышению безопасности работников, распознавая, когда они входят в опасную зону. Будут ли люди доверять ИИ?
Решения, принимаемые сложными нейронными сетями глубокого обучения, часто представляются без объяснений. Поскольку эти системы по сути представляют собой программу, решения плохо объясняются. Это называется черным ящиком искусственного интеллекта. В настоящее время проводятся исследования, которые сделают решения ИИ более прозрачными.
Если мы используем искусственный интеллект, как мы узнаем, можно ли доверять тому, что он говорит? Одно дело иметь дело с последствиями плохой рекомендации о покупке или ошибочного отклонения покупки в кредит. Но что произойдет, если критические операции и безопасность будут зависеть от искусственного интеллекта? Доверие – это твердая уверенность в надежности, правдивости, способностях или силе кого-либо или чего-либо. Людям нужно нечто большее, чем черный ящик с надписью «ИИ просто работает». Пользователи должны доверять искусственному интеллекту различными способами, которые перечислены ниже:
- Умение объяснять:Пользователи должны знать, почему системы ИИ принимают те решения, которые они принимают.
- Компетентность:Пользователи должны понимать пределы возможностей искусственного интеллекта. Кроме того, системы искусственного интеллекта также должны осознавать свои ограничения и адаптироваться к ним.
- Прозрачность работы:Пользователи должны видеть, как системы ИИ работают в режиме реального времени, и знать, почему они ведут себя именно так.
- Предсказуемость:Пользователи должны иметь возможность предсказывать, как системы ИИ могут реагировать в определенных ситуациях.
- Этические аспекты:Системы ИИ должны избегать этических проблем, которые могут подорвать доверие, если к ним не относиться деликатно.
Важность доверия к искусственному интеллекту
Ирен Петрик, бывший старший директор по промышленным инновациям Intel, сказала: «Когда дело доходит до доверия, мы спросили технологические компании, что для них наиболее важно». Около трети их комментариев касались доверия (см. рисунок), например, правильно ли ИИ использует нужные данные. ИИ должен привести к быстрому принятию большего количества и более эффективных действий таким образом, чтобы предвидеть другие потенциальные проблемы. Если пользователь не доверяет ИИ, это замедляет процесс.
В своем выступлении на конференции AI and Smart Automation 2022 Анатолий Горчет, технический директор Neurala, описал проблемы доверия, которые могут возникнуть из-за ограничений обобщения. Общая слабость искусственного интеллекта — изменчивость окружающей среды. Если данные обучающей модели берутся только утром, точность модели резко упадет днем или вечером, когда угол наклона солнца изменится. Это создает проблему доверия для пользователей, поскольку никто не допустит такой ошибки.
Имейте в виду, что различия в окружающей среде могут быть очень незначительными. Рассмотрим успешный искусственный интеллект, развернутый на новой линии, точность которого значительно упадет. Хотя технические специалисты думали, что линия идентична исходной, это было не так: новый оператор был на пятнадцать сантиметров выше первоначального оператора и блокировал больше окружающего света, изменяя условия окружающей среды настолько, что негативно воздействовал на нейронную сеть.
Горше отмечает, что для построения доверия требуется много времени, но достаточно одного события, чтобы его разрушить. Задача состоит в том, как научить людей доверять системам, которые могут вот так выйти из строя.
Создание данных, которым можно доверять
Модели ИИ строятся на данных. Поэтому само собой разумеется, что если пользователи хотят доверять ИИ, они должны иметь возможность доверять данным, использованным для его создания. Доминик Боэсл, технический директор Micropsi Industries, рассказал о различных способах, которыми данные могут повлиять на доверие.
Уверенность в данных начинается с тщательного их сбора. «В одном случае во время тренировки на столе лежала ручка. Искусственный интеллект рассматривал ручку как точку отсчета», — сказал Боэсл. «Достаточно одной фотографии без ручки, чтобы показать, что это не так важно».
Разработчики также должны учитывать систематическую ошибку выборки, поскольку это может повлиять на точность системы. Типичным примером систематической ошибки выборки являются условия окружающей среды, такие как освещение. «Искусственный интеллект не всегда один и тот же. Существуют разные виды и технологии его изготовления. И то, что ищет человек, не обязательно соответствует тому, что ищет ИИ. В 1995 году НАТО использовало программное обеспечение для распознавания, чтобы различать танки своих и противника. Это сработало не очень хорошо». После нескольких месяцев устранения неполадок они обнаружили, что данные обучения были взяты из фотографий чистых танков из брошюр и при ярком освещении, а не из фотографий танков, покрытых грязью или при слабом освещении.
«Дисперсия играет решающую роль в данных», — отвечает Боесль. «Учтите, что водители демонстрационных автомобилей Tesla должны иметь 95% безупречного опыта вождения. Автомобиль учат ожидать предсказуемого водителя. Но не каждый драйвер будет предсказуемым». Добавление дисперсии устраняет «слепые пятна», показывая более широкую выборку того, что приемлемо.
«При достаточной дисперсии нет необходимости показывать нежелательные состояния, не нужно говорить, что хорошо, а что плохо. Мы обязательно используем разнообразные белые и цветные фоны, чтобы научить ИИ не полагаться на фон. Чтобы получить независимость от освещения, во время тренировок мы используем систему, освещаемую видеопроектором. Поскольку освещение постоянно меняется, это учит ИИ, что свет не является важным свойством. И пусть обученный оператор, а не техник, обучает ИИ. Оператором будет эксперт, работающий с искусственным интеллектом».
Доктор Нурали Вирани, старший научный сотрудник по машинному обучению в GE Resear и руководитель инициативы Humble AI Initiative GE, утверждает: «На базовом уровне, если модель слишком уверена в своих прогнозах в редких и сложных ситуациях с ограниченными данными обучения или их отсутствием, это может быть ошибка экстраполяции. Это помогает понять точку зрения пользователя. Многие технические специалисты и конечные пользователи имеют многолетний или даже десятилетия опыта и хотят знать, как возможно, что ИИ знает что-то лучше, чем они».
«Существует также проблема человеческой ошибки. Если некоторые данные размечены неправильно, ИИ в таких случаях будет ненадежен. Если ИИ будет полагаться на эти данные для составления надежных прогнозов, это может привести к злоупотреблению доверием. Но если ИИ распознает, какие ярлыки, скорее всего, неверны, и терпим к некоторым ошибкам в ярлыках, тогда он сможет запросить обратную связь, чтобы сохранить доверие».
Горше считает, что способ разработки системы искусственного интеллекта влияет на доверие. Имейте в виду, что когда разработчики меняют оборудование, им также может потребоваться изменить версию платформы CUDA. Некоторые пользовательские модели могут не поддерживаться, поскольку Tensorflow не поддерживается в новой версии. Это может заставить пользователей задуматься, что еще может быть не так. Очень важно защитить пользователей от этих проблем разработчиков.
Искусственный интеллект и компетентность
Еще одной основой доверия к искусственному интеллекту является осознание ограничений. Вирани отмечает: «Мы придумали термин «скромный ИИ» для ИИ, который осознает свои возможности, может попросить о помощи и со временем расширяет свои возможности. Когда он обнаруживает, что находится за пределами своей компетенции, он передает решение оператору или переходит к другим безопасным режимам работы. Затем новые данные могут быть включены в модели для повышения компетентности искусственного интеллекта. Это важная идея. Искусственный интеллект не обязательно должен работать везде с самого начала. Его можно использовать там, где имеется достаточно данных, чтобы быть полезным и, прежде всего, заслуживающим доверия. ИИ может не знать, как диагностировать новую неисправность в промышленной системе, он скажет: «Я не знаю, вы эксперт, пожалуйста, помогите мне».,«Это не ошибка А, но это может быть дефект B или C».
Если разработчики примут компетентность как фактор, это может повысить доверие. Как утверждает Вирани: «Без компетентности ИИ будет принимать решения, даже если не знает ответа».
Вместо того чтобы рисковать давать неправильные ответы и разрушать доверие, ИИ может лишь сузить варианты. Это полезно. И это правильно. Продолжает укреплять доверие и снижать рабочую нагрузку в областях компетенции.
Ник Кравотта — участник Ассоциации по развитию автоматизации (A3), контент-партнер CFE Media and Tenology. Этот текст изначально был опубликован на сайте ассоциации А3. Под редакцией Криса Вавра, директора по веб-контенту журнала Control Engineering, CFE Media and Tenology, Этот адрес электронной почты защищен от спам-ботов. Для просмотра у вас должен быть включен Javascript..