О возможности доктринального восприятия системой общего права искусственного интеллекта как субъекта преступления: на примере уголовного законодательства США

О возможности доктринального восприятия системой общего права искусственного интеллекта как субъекта преступления: на примере уголовного законодательства США

Авторы: Ализаде Вера Александровна, Волеводз Александр Григорьевич, Шестак Виктор Анатольевич ЧИТАТЬ PDF
Шестак В.А. О возможности доктринального восприятия системой общего права искусственного интеллекта как субъекта преступления: на примере уголовного законодательства США / В.А.Шестак, А.Г.Волеводз, В.А.Ализаде // Всероссийский криминологический журнал. — 2019. — Т. 13, № 4. — С. 547-554. — DOI: 10.17150/2500-4255.2019.13(4).547-554.

Раскрывая вопрос о возможности привлечения искусственного интеллекта к уголовной ответственности с позиций действующего уголовного закона в США автор исследует мнения западных юристов, полагающих, что такая ответственность для машины, управляемой искусственным интеллектом, может иметь место в обозримом будущем. Анализу подвергнуты установленные американским законодателем условия наступления уголовной ответственности: наличие волевого противоправного деяния в форме действия или бездействия («actus reus»); намерения («mens rea»), то есть требований знания лица о наличии преступного умысла в его действиях либо для которых необходима исключительно неосторожность, а также три основные модели уголовной ответственности искусственного интеллекта. Первая, это совершение преступления через деяния иного существа, то есть случаи, когда субъект совершения преступления не обладает достаточными возможностями мышления, чтобы понимать значение злого умысла или тем более руководствоваться им при совершении действий. К таковым относят малолетних, ограниченно дееспособных и кибернетические системы современного уровня, когда рано говорить об их способности к мышлению, идентичному человеческому. Последние считаются невиновными в совершении деяния, поскольку последовательность их действий все равно контролируется заданной программой или лицом, осуществляющим опосредованное программное управление. Вторая, — когда преступление совершается субъектом, объективно виновным в его совершении. Поскольку в интеллектуальных системах часть программного кода изначально предусматривает некоторую противоправность действий, что может заключаться, к примеру, в заданной команде на безоговорочное уничтожение всех объектов, признаваемых системой опасными для той цели, на достижение которой направлена деятельность подобного искусственного интеллекта. Согласно второй модели требуется привлечение к ответственности лица, отдавшего неправомерную команду. При условии отсутствия элемента сокрытия такого «соисполнителя» уголовной ответственности должно подлежать лицо, отдавшее системе неправомерный приказ, а не исполнитель данного приказа, поскольку сама алгоритмическая система, в соответствии с которой действует исполнитель, является противоправной. Таким образом, ответственности согласно этой модели подлежат лица, написавшие или использовавшие программу, при условии, что они были осведомлены относительно противоправности системы приказов, которыми руководствовался исполнитель. К таковым преступлениям следует относить деяния, которые преступны по своей природе, но которые не могут быть предотвращены исполнителем — системой искусственного интеллекта. Третья, предполагает непосредственную ответственность искусственного интеллекта за деяния, содержащие одновременно как виновное волевое действие, так и противоправное намерение со стороны техники. Такая ответственность возможна в том случае, если искусственный интеллект признается субъектом уголовного права, а также если он на основе самостоятельно выработанного алгоритма совершает деяние, влекущее за собой общественно опасные последствия, либо таковые наступают в результате невыполнения системой действий, предусмотренных изначальным алгоритмом, то есть если его действие приобретает волевой виновный характер.

Ключевые слова: уголовная ответственность; правосубъектность; искусственный интеллект; робот; модели потенциального распределения уголовной ответственности при использовании интеллекта как инструмента преступного деяния.
Распечатать страницу