Камеры с искусственным интеллектом вызывают опасения по поводу конфиденциальности по мере роста их использования

17 июня 2024 года

  • Документы свидетельствуют о пилотных программах распознавания лиц на восьми крупных железнодорожных вокзалах Великобритании
  • Технология распознавания лиц может быть использована для анализа эмоций и действий людей
  • Защитники частной жизни предупреждают, что это нарушает гражданские права людей
ИИ-наблюдение

Новая волна наблюдения с использованием искусственного интеллекта распространяется по США и Великобритании, поскольку частные компании и государственные учреждения устанавливают камеры с искусственным интеллектом для анализа толпы, выявления потенциальных преступлений и даже наблюдения за эмоциональным состоянием людей в общественных местах.

В Великобритании железнодорожная компания Network Rail недавно протестировала камеры искусственного интеллекта на восьми вокзалах, включая такие крупные узловые станции, как лондонские Ватерлоо и Юстон, а также Манчестер Пикадилли. 

Документы получено группой гражданских свобод Big Brother Смотреть В ходе исследования было выявлено, что камеры предназначены для обнаружения несанкционированного проникновения на пути, переполненности платформ, "антисоциального поведения", такого как скейтбординг и курение, а также потенциальных краж велосипедов.

Что особенно важно, система искусственного интеллекта, работающая на базе программного обеспечения Rekognition от Amazon, пыталась анализировать возраст, пол и эмоции людей, такие как счастье, печаль и гнев, когда они проходили мимо виртуальных "трипперов" возле билетных барьеров. 

В отчете Network Rail, часть которого отредактирована, говорится, что на каждой станции было "по одной камере (как правило, камера на проходной), где снимок делался каждую секунду, когда люди пересекали проходную, и отправлялся на анализ в AWS Rekognition".

Далее говорится: "Потенциально для измерения удовлетворенности можно было бы использовать метрику эмоций клиентов" и "Эти данные можно было бы использовать для максимизации доходов от рекламы и розничной торговли. Однако это было трудно оценить количественно, поскольку NR Properties никогда не была успешно задействована".

Amazon Rekogniton, платформа машинного обучения на основе компьютерного зрения (CV) от Amazon, действительно может распознавать эмоции. Однако это было лишь пилотное тестирование, и его эффективность неясна.

В отчете говорится, что при использовании камер для подсчета людей, пересекающих железнодорожные ворота, "точность по всем линиям ворот была одинаково низкой, в среднем примерно от 50% до 60% по сравнению с ручным подсчетом", но ожидается, что эта ситуация улучшится. 

Использование технологии распознавания лиц правоохранительными органами также вызывает опасения. Не так давно лондонская столичная полиция использовали камеры для распознавания лиц в реальном времени выявить и арестовать 17 человек в городских районах Кройдон и Тутинг. 

В рамках "точного полицейского контроля" технология сравнивает записи с камер в реальном времени со списком лиц, на которых не выдан ордер.

В феврале с помощью системы Метрополитен произвел 42 ареста, хотя неизвестно, сколько из них привели к официальным обвинениям. 

"Развертывание и нормализация слежки с помощью искусственного интеллекта в этих общественных местах без особых консультаций и обсуждений - довольно тревожный шаг", - прокомментировал Джейк Херфурт, глава исследовательского отдела Big Brother Watch.

Ваши эмоции в базе данных

Критики утверждают, что распознавание лиц угрожает гражданским свободам. 

Члены парламента Великобритании призвал полицию пересмотреть как они внедряют технологию, после того как они предложили получить доступ к базе данных из 45 миллионов фотографий паспортов, чтобы лучше обучить эти модели наблюдения. 

Эксперты также ставят под сомнение точность и правовую основу системы распознавания лиц. Big Brother Смотреть споры что большинство (85%+) совпадений при распознавании лиц в полиции Великобритании являются ошибочными. 

Представители полиции попытались развеять опасения по поводу конфиденциальности, заявив, что несовпадающие изображения быстро удаляются и что система распознавания лиц прошла независимый аудит. 

Однако разговоры стоят дешево, когда неправильное использование этих систем искусственного интеллекта действительно влияет на жизнь людей. Программы предиктивного полицейского контроля в US как правило, не достигали своих целей, нанося побочный ущерб в виде преследований со стороны полиции и неправомерных тюремных заключений. 

Опасения по поводу предвзятости и неточности систем распознавания лиц, особенно цветных, были одним из главных поводов для споров. 

Исследования показали. Технология может быть значительно менее точной для лиц с темной кожей, особенно для чернокожих женщин.

Политикам придется решать сложные вопросы, связанные с прозрачностью, подотчетностью и регулированием этих мощных инструментов. 

Активные общественные дискуссии и четкие правовые рамки будут иметь решающее значение для обеспечения того, чтобы преимущества ИИ в сфере общественной безопасности не перевешивали риски для индивидуальных прав и демократических ценностей. 

Поскольку технологии мчатся вперед, время для расплаты может оказаться коротким.

Присоединяйтесь к будущему


ПОДПИСАТЬСЯ СЕГОДНЯ

Четко, лаконично, всесторонне. Получите представление о развитии искусственного интеллекта с помощью DailyAI

Сэм Джинс

Сэм - писатель в области науки и техники, работавший в различных AI-стартапах. Когда он не пишет, его можно найти за чтением медицинских журналов или копанием в коробках с виниловыми пластинками.

×

ЭКСКЛЮЗИВНЫЙ БЕСПЛАТНЫЙ PDF
Будьте впереди с DailyAI

Подпишитесь на нашу еженедельную рассылку и получите эксклюзивный доступ к последней электронной книге DailyAI: "Освоение инструментов искусственного интеллекта: Ваше руководство по повышению производительности в 2024 году".

* Подписываясь на нашу рассылку, вы принимаете наши Политика конфиденциальности и наш Условия и положения