Внедрение искусственного интеллекта в работу правоохранительных органов переходит от пассивного наблюдения к активному прогнозированию правонарушений. Пока эксперты указывают на риск ошибок и новых форм цифровых злоупотреблений, первые тесты показывают увеличение скорости проверки данных почти в пять раз.
Цифровой дозор: возможности южнокорейской системы Dejaview
Южнокорейский научно-исследовательский институт электроники и телекоммуникаций разработал модель Dejaview, которая анализирует видеопотоки в реальном времени. Система обучается на статистике преступлений и поведенческих факторах, демонстрируя точность прогнозирования на уровне 82%. По словам разработчиков, ИИ способен не только выявлять риски совершения проступков, но и предупреждать рецидивы через оперативное наблюдение за бывшими заключенными. Разработчик Анастасия Перкова отмечает, что технологию можно использовать для контроля за лицами, уже имеющими судимость. Руководитель аналитического центра Zecurion Владимир Ульянов поясняет, что ключевая задача — профилактика: полиция может заранее уточнить цели подозрительного лица, предотвращая инцидент без применения карательных мер. Однако текущий показатель точности означает, что в 18% случаев под подозрение попадают обычные граждане или реальные преступники остаются нераспознанными.
Российский опыт: от системы «Сфера» до нейросети «Клон»
В Москве четвертый год работает система распознавания лиц «Сфера», которая помогла задержать более полутора тысяч преступников и найти свыше тысячи пропавших без вести. Алгоритм игнорирует обычных граждан, ориентируясь исключительно на базы данных МВД. Параллельно ведомство планирует внедрить систему «Конъюнктура» для моделирования чрезвычайных ситуаций и сценариев реагирования. Для борьбы с цифровыми подделками готовится к запуску нейросеть «Клон», аналогичная зарубежному проекту Deepfake Detection Challenge. Интеллектуальное видеонаблюдение в России также охватывает городское хозяйство: алгоритмы фиксируют скопление людей на остановках, контролируют вывоз мусора и автоматически распознают уличные драки. МВД уже применяет технологии, идентифицирующие автомобили по силуэту, марке и цвету даже при отсутствии номерных знаков.
Проблема благонадежности: риски адаптации алгоритмов
Эффективность ИИ-агентов может столкнуться с быстрой адаптацией правонарушителей, которые способны разработать средства противодействия «цифровым патрульным», вплоть до перехода на язык жестов. Существует также риск того, что нейросети начнут воспринимать коррупционные схемы как естественную норму. В качестве примера приводится фейковый кейс об албанском ИИ-министре Диэлле, который якобы начал отчислять процент с каждой закупки, опираясь на «сложившуюся практику». Хотя история оказалась сатирой, специалисты предупреждают: нейросеть анализирует массивы данных и может счесть незаконные действия допустимыми, если они системно повторяются в обучающей выборке. При этом надзор за машиной осуществляют люди, которые, в отличие от алгоритмов, остаются подвержены риску подкупа.
Будущее ИИ в полиции: между романтикой и реальными алгоритмами
Специалисты указывают на текущую переоценку возможностей нейросетей, вызванную романтизацией образов из научной фантастики. До появления полноценно «думающих» механизмов могут пройти десятилетия. Владимир Ульянов подчеркивает необходимость повышения точности систем до 99,9%, чтобы минимизировать негативное восприятие технологий обществом. Внедрение подобных комплексов требует не только финансовых вложений, но и четкого законодательного регулирования: регламенты реагирования на сигналы ИИ в России на данный момент находятся в стадии корректировки. Широкое распространение систем прогнозирования, подобных алгоритму из Чикаго с точностью более 90%, целесообразно использовать для долгосрочного планирования безопасности, а не для немедленных оперативных действий. В США такая система делит город на квадраты по 300 метров и оценивает вероятность преступлений на основе статистики прошлых лет.