На сегодняшний день в деятельности современного следователя можно выделить основные элементы, к которым могут быть применены возможности систем искусственного интеллекта: поиск ориентирующей и доказательственной информации, принятие решений и работа с процессуальными документами.
Можно выделять отдельные компоненты ИИ при расследовании преступлений. В частности, при расследовании преступлений, связанных с незаконным оборотом наркотических средств используются следующие устройства:
Universal forensic extraction device (UFED)-или же устройство криминалистического исследования сотовых телефонов. Посредством такого аппарата извлекаются видео, фото, книги, журналы вызовов.
BelkasoftEvidenceCenter — представляет собой программное обеспечение, используемое полицией по всему мир для произведения компьютерно-технических экспертиз. Оно значительно облегчает получение, поиск, анализ, сохранение и передачу цифровой информации, находящейся внутри как компьютеров так и мобильных устройств.
И пр.
Дактилоскопии тоже есть чем похвастаться. Прежде всего это автоматизированные системы хранения, поиска и сравнения следов рук- AFIS, которые пролистывают 40 млн. отпечатков в секунду. Невозможно исследовать невидимые следы рук без применения возможностей Polilight Rofin Forensic и т.д.
Существенную пользу оказал полиграф, который напрочь исключает элемент психологического давления со стороны следователя на допрашиваемого. Хотя, на сегодняшний день данные полученные посредством полиграфа и не используются в качестве доказательств, но тем не менее криминалисты считают, что работа с полиграфом скоро изменится принципиально. К психофизиологическим исследованиям посредством одновременной регистрации параметров дыхания, сердечно-сосудистой активности, сопротивления кожи и других физиологических параметров должен прибавится анализ реакции мозга с помощью возможностей электроэнцефалографии (ЭЭГ) и магнитно-резонансной томографии (МРТ).
Искусственный интеллект невозможно на современном этапе развития раскрыть через призму этичности, поскольку нравственные категории нельзя формализовать и задать под алгоритм. Но тем не менее, искусственный интеллект предупреждает во многом акты неэтичности со стороны человека (в нашем случае следственных работников и иных процессуальных участников).
Например, можете ли вы представить себе вскрытие тела без вскрытия? Проблема вскрытия всегда являлась актуальной проблемой этики.
Максимально этично решить этот вопрос позволит криминалистическая томография, или виртуальная аутопсия – вскрытие без вскрытия. Для исследования тела судмедэксперты будут использовать возможности компьютерной томографии, мультиспиральной компьютерной томографии и 3D технологий. Эта технология уже применяется в мире, правда, не часто, из-за дороговизны.
Её признают суды Швейцарии, использует американская армия, криминалисты из Австралии. Важное преимущество (помимо решения этических вопрос) в том, что при виртуальной аутопсии не нарушают ткани.
Всё же полагаю, что любые типы искусственного интеллекта, которые могут быть использованы при раскрытии и расследовании преступлений, должны быть апробированы, а возможность использования таковых – в законодательстве.
Конечно не обошлось и без грехов.
Сам механизм программирования, который создается в качестве опор для выводов ИИ, нельзя назвать собственной этической программой нейронной сети. Это всего лишь набор ограничительных команд.
Отсюда и вытекает вторая проблема. Если ИИ-это набор команд, то им можно «вставлять» любые данные.
К примеру, в ряд штатов США искусственный интеллект используется для расчета вероятности преступления. Это позволяет судьям принимать решение, отпускать подсудимого под залог или нет. Однако решения ИИ зачастую необоснованные.
Проект ProPublica, занимающийся журналистскими расследованиями, проанализировал сгенерированные «цифрой» оценки рисков для 7 тыс. арестантов во Флориде. Выяснилось, что программа, используемая судьями для предсказания случаев рецидивизма, была настроена совершенно расистски: в два раза чаще, чем белых «коллег по нарам», она помечала чернокожих обвиняемых как неисправимых преступников, пренебрегая другими фактами их биографии и обстоятельствами. (Подробнее на РБК:
https://trends.rbс.ru/trends/soсial/5eb299089a79476e9fd77f5с).
Ну и конечно же проблема ответственности. Проблема ответственности появляется в тех областях доверия, где человеку приходится полагаться на действия системы ИИ. Как реагировать на них?
По выражению А. В. Разина Доктора филос. наук, проф., зав. каф. этики философского факультета МГУ им. М. В. Ломоносова, - «В этике есть понятие разделенной ответственности: в той или иной степени ответственность несут все участники — и разработчик системы искусственного интеллекта, и ее владелец, и пользователь (если он имеет возможность настраивать ее), и сама система.»
Резюмируя, можно сказать, что для принятия «человеческих» решений, ИИ должен: уметь произвольно манипулировать образами, иметь индивидуальный феноменальный опыт и встроенные этические «законы Азимова», быть способным к эмпатии и нравственным переживаниям. (цит. по РБК).