К ВОПРОСУ О ПРАВОСУБЪЕКТНОСТИ СИЛЬНОГО ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Журнал: Научный журнал «Студенческий форум» выпуск №7(186)
Рубрика: Юриспруденция
Научный журнал «Студенческий форум» выпуск №7(186)
К ВОПРОСУ О ПРАВОСУБЪЕКТНОСТИ СИЛЬНОГО ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Термин «искусственный интеллект» (сокращённо – ИИ) был предложен в 1956 г. предложил Д. Маккартни. Под ИИ понимается свойство интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека [1, с. 16].
В некоторых работах по искусственному интеллекты выделяют слабый и сильный искусственный интеллект. Под слабым ИИ понимаются программы, способные выполнять любые когнитивные задачи. Слабым ИИ может быть назван и обычный калькулятор, и виртуальный помощник «Алиса». Под сильным ИИ (иногда именуемым искусственным сознанием) понимают такую интеллектуальную систему, которая, помимо выполнения мыслительных задач, имеет возможность самообучаться и идентифицировать себя как субъекта деятельности, то есть мыслить так, как это делает человек. Несмотря на огромные достижения в робототехнике в последние годы, сильный ИИ до сих пор не был создан. Проблему создания сильного ИИ и его отличие от слабого искусственного интеллекта можно продемонстрировать на мысленном эксперименте «Китайская комната», предложенным в 1980 году Джоном Сёрлом.
Представьте себе кубическую комнату, в которой сидит человек. Перед ним лежит книга с парами китайских иероглифов. В комнате имеется два окошка. Через одно из них к человеку поступает бумажка с нарисованным на ней иероглифом. Человек должен найти в книге данный символ и ответить соответствующим иероглифом, указанным в книге, просунув бумажку через второе окошко. Постепенно человек отвечает всё быстрее, выучивая ответы на те или иные иероглифы. Со стороны может показаться, что человек внутри коробки способен вести полноценный диалог на китайском языке, однако на деле это, конечно же, не так. Все слабые ИИ построены таким же образом: на алгоритме. В этом смысле, голосовые помощники отличаются от попугаев только тем, что у них есть чёткая последовательность действий. Именно поэтому знаменитый Тест Тьюринга не применяется для установления сильного ИИ. Имитация мышления не есть само мышление.
Несмотря на указанные выше технические проблемы в реализации сильного искусственного интеллекта, тема правового положения ИИ достаточно часто затрагивается в научных публикациях. Имеется довольно большое количество предложений по вопросу правосубъектности ИИ, которые мы рассмотрим ниже.
Существуют пять основных концепций правосубъектности ИИ [5, С. 232]:
1. ИИ как объект. Согласно данной позиции, признание ИИ субъектом права объективно не требуется ни на данный момент, ни в будущем. С данной позицией мы можем согласиться лишь относительно слабого ИИ.
Имеется также некий «компромиссный» подход, согласно которому ИИ может является одновременно и объектом (например, права собственности) и субъектом права [4, с. 39]. На наш взгляд, такой подход может повлечь огромные теоритические (сходство положения ИИ на положение раба при рабовладельческом строе) и практические трудности (сложности в разграничении субъект-объектных отношений).
2. ИИ как животное. Данная концепция представляет собой разновидность первой, так как в современном российском праве животные являются объектом, а не субъектом прав. Безусловно, эта позиция также подходит к слабому ИИ.
3. ИИ как юридическое лицо. Это предложение уже может быть применено и к сильному ИИ. В основном оно основано на экономии правового регулирования. Безусловно, признать ИИ юридическим лицом является достаточно простым, так как требует лишь несущественного внесения изменений в законодательство. На наш взгляд данная концепция также является несостоятельной, в связи с тем, что не способна отразить уникальные особенности искусственного интеллекта, и его отличие от обыкновенных юридических лиц.
4. ИИ как человек. Наделение ИИ правым статусам, сходным со статусом человека, является одной из самых крайних и, одновременно, самых интересных позиций. При этом нужно иметь ввиду, что концептуальное строение ИИ может исключать возможность применения данного подхода. Так, искусственный интеллект может не иметь единственного «тела», ИИ может иметь возможность перемещаться между разными механизмами, что, естественно, не может осуществить человек. ИИ не возможно будет причинить физический вред, если он не будет иметь органического тела. Подобные возможные отличия исключают возможность применения указанного подхода.
Иногда также в науке предлагается наделить ИИ статусом ребёнка определённого возраста. Данную концепцию мы также не разделяем по указанным выше причинам.
5. ИИ как электронное лицо. Сам термин «электронное лицо» появился в рамках обсуждения вопроса правосубъектности роботов и интеллектуальных программ в Европейском Союзе. Под электронным лицом следует понимать носителя искусственного интеллекта (машину, робота, программу), обладающего разумом, аналогичным человеческому, способностью принимать осознанные и не основанные на заложенном создателем такой машины, робота, программы алгоритме решения, и в силу этого наделённый определёнными правами и обязанностями [6, с. 357]. Как мы видим из определения, речь идёт именно про сильный ИИ. На наш взгляд, создание самостоятельного правового регулирования является наиболее оптимальным и разумным решением для определения правосубъектности ИИ. Безусловно, такое регулирование должно строиться на технических характеристиках существующего искусственного интеллекта, его когнитивных и физических возможностях.
Также хотелось бы упомянуть следующее. С. В. Сарбаш утверждает, что сама постановка вопроса о наделении роботов правосубъектностью не вполне корректна с точки зрения политики права. По мнению учёного, как только роботы начнут отвечать критерию разумной сущности, они объективно приобретут статус субъекта права, вопрос же признания их субъектами на государственном уровне – лишь вопрос закрепления фактически существующего статуса [3, с. 43].
При этом, хотелось бы отметить, что признание ИИ субъектом права неизбежно приводит к обсуждению вопроса критериев признания существа (или, в нашем случае, механизма) субъектом правоотношений. Согласно одной из научных позиций, основной критерий прасосубъектности робота: его возможность преследовать собственные цели [2, с.71]. На наш взгляд, данная позиция не совсем корректна. Хотелось бы отметить также, что признание ИИ субъектом на основании теста Тьюринга, как мы указывали выше, также не может быть корректной. Критерий самоидентификации ИИ также не надёжен в теоритическом плане, потому как, в таком случае, нам необходимо будет признать субъектами права также и всех животных, прошедший зеркальный тест. На наш взгляд, в основу должен быть положен критерий разумности, хотя мы признаём, что он не проработан ни с правовой, ни естественно-научной точек зрения. На наш взгляд, необходима серьёзная теоритическая проработка разумности как критерия признания любого существа или механизма субъектом права.