В лондонском метро в ходе годичных испытаний была применена технология искусственного интеллекта для наблюдения.
В период с октября 2022 года по сентябрь 2023 года компания Transport for London (TfL) протестировала 11 различных алгоритмов на станции метро Willesden Green, расположенной в северо-западном секторе города.
Согласно подробным документам, полученным WIREDВ ходе этого испытания было проведено наблюдение за передвижениями, поведением и языком тела тысяч пассажиров с целью выявления потенциальных преступных действий и угроз безопасности.
Программное обеспечение ИИ, связанное с записями камер видеонаблюдения (это направление машинного обучения - компьютерное зрение), было обучено распознавать агрессивное поведение, оружие, безбилетный проезд и несчастные случаи, например, людей, которые могут упасть на рельсы.
Полиция Великобритании уже проводила эксперименты по наблюдению с помощью искусственного интеллекта и продолжает это делать на некоторых публичных мероприятиях, как, например, на Концерт Бейонсе в прошлом году.
Однако, это часто оказываются неэффективными, и правозащитные группы критикуют эту технологию, называя ее неприятным вторжением в частную жизнь и источником предрассудков и дискриминации.
Видеотехнологии с искусственным интеллектом имеют проблемную историю. многочисленные проекты по всему миру, недовыполненные При этом темнокожие люди иногда ассоциируются с преступлениями, которых они не совершали.
В течение всего испытательного периода TfL было сгенерировано около 44 000 предупреждений, из которых примерно 19 000 были переданы непосредственно сотрудникам для принятия мер.
Офицеры участвовали в испытаниях, размахивая оружием, таким как мачете и пистолеты, в поле зрения системы видеонаблюдения (хотя и в то время, когда станция была закрыта), чтобы лучше обучить искусственный интеллект.
Вот полный список результатов:
- Всего оповещений: Система искусственного интеллекта выдала более 44 000 предупреждений.
- Оповещение персонала станции в режиме реального времени: 19 000 были доставлены в режиме реального времени персоналу станции для принятия немедленных мер.
- Предупреждения о безбилетном проезде: Система искусственного интеллекта создала 26 000 предупреждений, связанных с действиями по безбилетному проезду.
- Предупреждения о колясках: На станции, где нет надлежащих приспособлений для доступа инвалидов-колясочников, было зарегистрировано 59 предупреждений, касающихся инвалидов-колясочников.
- Предупреждения по линии безопасности: Почти 2 200 штрафов было выдано за пересечение желтых линий безопасности на платформах.
- Оповещения о границах платформы: Система выдала 39 предупреждений о людях, наклонившихся над краем платформы поезда.
- Удлиненная скамейка для сидения: Почти 2 000 предупреждений касались людей, длительное время сидящих на скамейках, что может свидетельствовать о различных проблемах, включая благополучие пассажиров или угрозу безопасности.
- Предупреждения об агрессивном поведении: Было получено 66 предупреждений, связанных с агрессивным поведением, хотя система искусственного интеллекта не смогла надежно обнаружить такие инциденты из-за недостаточного количества обучающих данных.
Однако в некоторых сценариях система искусственного интеллекта не справлялась с задачей, приводя к ошибочным результатам, например, отмечая детей, проходящих через барьеры, как потенциальных безбилетников.
Согласно TfL, конечной целью является создание более безопасного и эффективного метрополитена, защищающего как общественность, так и персонал.
Технология наблюдения с помощью искусственного интеллекта не является ужасной по своей сути, если она используется для обеспечения общественной безопасности, но как только она появляется, держать ее под контролем становится непростой задачей.
Уже есть свидетельства того, что Злоупотребление искусственным интеллектом в государственном секторе Великобритании, и скандалы в других странах указывают на то, что это скользкая дорожка, если не обращаться с ней с максимальной осторожностью.