Когда алгоритм объявляет цифровую улику «подделкой», человеческие аргументы теряют вес. Исход дела может зависеть от непрозрачного «чёрного ящика», решение которого сложно — а порой невозможно — оспорить. Поддельные цифровые улики могут использоваться и стороной обвинения: их подбрасывают, ими давят на подозреваемого, ими формируют нужное впечатление. Где проходит грань между естественными реалиями цифрового мира и последствиями архаичных процедурных норм, не поспевающих за технологическим прогрессом?
Цифровые улики — фото, видео, аудиозаписи, логи, метаданные и данные из облаков — всё чаще становятся частью судебных процессов. Инструменты криминалистики подстраиваются под новые задачи: анализ становится автоматизированным, используются методы статистического анализа и нечёткого поиска, а также модели искусственного интеллекта, оценивающие степень достоверности доказательств. Они работают с вероятностями; их выводы основаны на сложных вычислениях, которые трудно проверить и почти невозможно воспроизвести.
Это создаёт практическую дилемму: процессуальные гарантии, веками выстраиваемые для вещественных доказательств и показаний живых людей, не обеспечивают прозрачности и возможности перепроверить результат, которые необходимы для цифровой экспертизы. Когда вывод строится на вероятностной модели или алгоритме с неизвестной логикой, возможности сторон оспорить такой результат резко сужаются. А значит, растёт риск судебных ошибок и несправедливых решений — не обязательно из злого умысла, а из-за того, что процессуальные нормы не успевают за реальностью.
Цифровые доказательства — это не просто файлы на устройстве. Это совокупность данных, включающая всю цепочку хранения: сам контент (фото, видео, переписка), его метаданные — такие как EXIF, временные метки, сетевые логи, история изменений, а также контекст хранения — контейнер, файловая система, облако или резервная копия. Даже простое копирование может изменить важные признаки подлинности: атрибуты, временные метки, признаки манипуляции; в ряде случаев в процессе извлечения может измениться даже сам формат файла. Для непосвящённого «снимок экрана» и «оригинальное изображение» могут выглядеть одинаково, особенно в распечанном на бумаге виде, но для криминалиста это принципиально разные объекты с разной доказательной силой.
Юридическая ценность цифровой улики определяется не только её содержанием, но и тем, каким образом она была получена, как хранилась, чем и как исследовалась. Принцип криминалистической чистоты требует документировать каждый шаг: кто, когда и каким способом извлёк данные, каким инструментом, какой версией и с какими настройками, где и как хранились данные, кто имел к ним доступ. В отличие от физических вещественных доказательств, цифровые данные могут измениться незаметно, без следов внешнего воздействия; чтобы этого не случилось, обязательно считаются и сохраняются контрольные суммы. В цифровой криминалистике не меньшее значение, чем сам контент, имеет процесс — прозрачность и воспроизводимость всех действий с данными.
Традиционные процессуальные гарантии — критерии подлинности, криминалистической чистоты, возможность перекрёстного допроса — были созданы для физических улик и живых свидетелей. Предмет можно осмотреть, человека — допросить, эксперту — задать неудобные вопросы. С цифровыми уликами всё сложнее: они существуют в виде набора данных, которые можно копировать, изменять, переносить и анализировать программными средствами, которые далеко не всегда способны обеспечить криминалистическую чистоту «цепочки хранения». Результат анализа в значительной степени зависит от инструментов, с помощью которых данные были получены и обработаны. Ошибочные действия любого участника, несовершенства алгоритмов могут сильно исказить результат экспертизы.
Процессуальные нормы исходят из того, что эксперт может объяснить, как он пришёл к выводу, а суд — проверить его рассуждения. Но цифровая экспертиза всё чаще опирается на алгоритмические модели, которые невозможно допросить или перепроверить — разве что использовав другую, но такую же непрозрачную модель. Программы анализа изображений, аудио или видео используют сложные статистические методы, машинное обучение и нейросети, которые выдают результат в форме вероятности: «есть признаки подделки — 82%». А если «63%»? При этом сам механизм расчёта вероятности остаётся скрытым и малопонятным даже для эксперта, который им пользуется, не говоря уже о суде или сторонах.
Такое положение ставит судебный процесс в зависимость от доверия к инструменту, а не к человеку, а отсутствие прозрачности делает невозможным полноценный перекрёстный анализ. Модель может уверенно выдать заключение с точностью до сотых долей процента, но не в состоянии объяснить, на чём оно основано. Попытка оспорить вывод программы превращается в спор о доверии: чьи алгоритмы надёжнее, чья лаборатория авторитетнее. При этом сама методика не проходит независимой валидации, а статистика ложных срабатываний, как правило, не публикуется.
Эта размытость подрывает базовый принцип справедливого судебного разбирательства — возможность стороны понять и оспорить доказательство. Пока старые процессуальные нормы не адаптированы к цифровым реалиям, каждая новая экспертиза, основанная на непрозрачных моделях, остаётся актом веры в технологию. Суду приходится выбирать, кому доверять: эксперту или показаниям сторон и свидетелей, и часто выбор делается в пользу вывода эксперта — просто потому, что эксперт формально квалифицирован и обладает сертификатом.
Цифровые улики также подвержены манипуляциям и злоупотреблениям, как и обычные. Одна из простейших схем — подброс файла, например, через AirDrop. На первый взгляд улика может выглядеть убедительно, на деле — манипуляция, позволяющая произвести задержание, а при удачном для обвинении стечении обстоятельств — и довести дело до суда. Единственный подброшенный файл запускает процедуру, которая может перерасти в уголовное дело.
Другой тип злоупотреблений — использование данных, полученных с нарушением процедуры, а то и откровенно подделанных, для давления на подозреваемого. Даже если эти данные не попадут затем в суд, они могут заставить человека дать признательные показания. Впрочем, этот метод не нов: сделанные скрытой камерой или откровенно постановочные фотографии использовались спецслужбами репрессивных режимов повсеместно. Более того, подобные методики культивировались сознательно; они тщательно составлялись и документировались; с соответствующими архивными документами Ministerium für Staatssicherheit (MfS) ГДР, или Stasi, может ознакомиться любой желающий, посетив один из открытых архивов или музеев. Разница — и она принципиальна! — в том, что если раньше для убедительной подделки доказательств требовались ресурсы мощной организации, то теперь подделать (отредактировать, а то и сгенерировать), к примеру, фотографию способен любой школьник.
Далее, ошибки. Сюда входят такие вещи, как некорректное извлечение данных (в частности, использование методов, не сохраняющих или модифицирующих метаданные — такие, как атрибуты владельца файла или временные метки), конверсия форматов, потеря хэшей. К примеру, фотография экрана устройства, а тем более — её распечатка, хоть и может использоваться в ходе расследования, сама по себе не является доказательством, но в совокупности с корректно оформленной и документированной цепочкой хранения — уже может получить доказательственное значение. Техническая ошибка легко превращается в процессуальную проблему: стороны начинают спорить не о содержании, а о корректности экспертизы.
В рамках этой публикации мы рассуждаем о том, как подобные вещи должны работать в теории — и в то же время понимаем, что современные реалии далеки от идеала. Проблемы такого рода решаются не мгновенно и не только усилиями отдельных экспертов. Важно последовательно выстраивать процедуры и стандарты: фиксировать контрольные хэши и логи, подробно документировать действия с данными, обеспечивать возможность проверки и повторной экспертизы. Это не требует «идеальных условий», но повышает прозрачность и доверие к цифровым доказательствам, тем самым делая судебные ошибки менее вероятными.
С одной стороны, ответственность за выводы экспертизы лежит на конкретном специалисте. Если эксперт что-то не увидел, пропустил, не понял — это не нарушение. С другой — в связи с нехваткой времени, а иногда и квалификации эксперты могут опасаться брать на себя лишнюю ответственность, предпочитая «не заметить лишнего», если не уверены что смогут квалифицированно это интерпретировать и в случае необходимости — объяснить. Наконец, нельзя игнорировать и то, что в реальных условиях на выводы экспертов влияют и внешние факторы: организационные ограничения, профессиональная изоляция, а иногда — системные ожидания, которые делают выбор «удобного» заключения привлекательным. Поэтому помимо персональной ответственности важны и институционные гарантии: прозрачные процедуры назначения экспертиз, возможность независимой проверки и механизмы защиты для специалистов — всё это снижает риск того, что одна ошибка или давление превратятся в фатальное и необратимое решение.
Если экспертиза объявила доказательство сфабрикованным или, напротив, не распознала подделку, имеет смысл запросить полный отчёт эксперта: как именно он проводил проверку, какие программы и версии использовал, какие файлы анализировал и как они были получены. Для проведения повторной независимой экспертизы важно получить доступ к оригиналам всех данных; в идеале — к самому устройству, из которого они были извлечены. При необходимости может иметь смысл пригласить технического специалиста, который сможет объяснить детали проверки понятным языком.
Имейте в виду: разные программы и модели могут давать разные результаты, поэтому важно не только проверить исходные данные, но и понять, как именно программа пришла к тому или иному выводу. В суде эксперт должен ответить на простые вопросы: можно ли воспроизвести анализ? Если метаданные имеют значение, не могли ли они измениться при копировании? Если возникают сомнения, ходатайствовать о повторной проверке и исключении сомнительных результатов из доказательств. Иногда простые уточняющие вопросы помогают увидеть, что «подделка» оказалась ошибкой, а инкриминирующее фото или видео не могло быть снято на устройстве обвиняемого — что, кстати, отлично демонстрирует недавний кейс, описанный в статье Deepfakes Uncovered – iPhone 6 Could Not Have Captured the A.I.-Generated Evidence.
Цифровые улики становятся неотъемлемой частью расследований, но вместе с ними в появилась неопределённость. Мы доверяем алгоритмам, которых не понимаем, и моделям, для которых «управляемая галлюцинация» — не ругательство, а техническое описание принципов работы. Модели и алгоритмы, их решения и рекомендации, всё чаще определяют судьбы людей. Суд и следствие пока опираются на правила, созданные для мира вещественных доказательств и живых свидетелей, которых можно было допросить, поймать на противоречиях, уличить во лжи. Поймать на противоречиях компьютерную модель намного сложнее, иногда — невозможно. «Прекрасный новый мир» требует новых подходов, которые формируются прямо сейчас на основе проб и ошибок.