ПРАВОВЕ РЕГУЛЮВАННЯ ТЕХНОЛОГІЙ ШТУЧНОГО ІНТЕЛЕКТУ: ТЕОРЕТИКО-ПРИКЛАДНІ ТА ЕТИЧНІ ЗАСАДИ
Анотація
Мета статті полягає в здійсненні аналізу правового регулювання суспільних відносин, що виникають у зв’язку з розвитком технологій штучного інтелекту.
Наукова новизна. У статті висвітлюються теоретико-правові та етичні засади правового регулювання технологій штучного інтелекту. Поставлені питання правового погляду на штучний інтелект, зокрема його співвідношення з правами людини та правом інтелектуальної власності.
Висновки. Технології штучного інтелекту дуже швидко розвиваються, єдині підходи до оцінки ризиків, пов’язаних з їх використанням, відсутні. Необхідно сформувати міждисциплінарний підхід до вивчення економічних, правових, політичних і соціальних аспектів застосування технологій штучного інтелекту.
Питання, пов’язані з появою штучного інтелекту, мають не стільки правовий, скільки філософський характер: як сконструювати цей інтелект таким чином, щоб жодна група людей не зуміла отримати з його допомогою переваги над іншими людьми, і щоб штучний інтелект не спрямував свою силу проти людства, а навпаки – використовувався на його благо.
На даному етапі правове регулювання в сфері використання технологій і юнітів штучного інтелекту знаходиться на стадії становлення та початкового розвитку. Ще зарано говорити про досягнення в практичній реалізації конкретних комплексних заходів, спрямованих на забезпечення поваги прав людини. Зараз подібного роду заходи приймаються, в основному, в сфері захисту конфіденційності особистих даних. Необхідно заохочувати нові форми регулювання, щоб сприяти прозорості та дотриманню етичних принципів, правових парадигм та освітніх дій, особливо щодо новітніх технологій, які потенційно можуть порушувати права людини.
Ключові слова: штучний інтелект, правове регулювання, права людини, етика, свобода й недоторканність приватного життя, захист персональних даних.
Постановка проблеми. Сучасні комп’ютерно-програмні технології, нейротехнології, біотехнології, технології робототехніки продовжують інтенсивно розвиватися.
Однією з найбільш перспективних і, водночас, найбільш неоднозначною технологією є штучний інтелект комп’ютерних або кіберфізичнх систем із «людиноподібним інтелектом». Штучний інтелект ще називають «машинним інтелектом», «машинним розумом» або «розумною машиною». Цифрові технології зачіпають всі аспекти особистого й суспільного життя, впливаючи на наш спосіб сприйняття світу й себе самих, а також на прийняття рішень у сфері медицини, економіки та соціуму.
Існує точка зору, що штучний інтелект може призвести до нової «форми варварства», де закон найсильніших переважає над загальним благом. Аморальний технологічний прогрес може стати причиною занепаду соціуму. Варто акцентувати увагу на загрозах використання штучного інтелекту для поширення інформації та тенденційних помилкових даних, які можуть маніпулювати думками великої кількості людей.
Нові технології змінюють наше повсякденне буття і ставлять етичні питання, яких раніше не існувало. Зміни в житті людей, які приносить штучний інтелект, важко порівняти з тим, що з’являлося раніше. Людство може позбутися більшості відомих професій, також існує можливість створення нової форми життя.
Аналіз останніх досліджень і публікацій. Питання теорії та практики захисту прав людини в умовах застосування технологій штучного інтелекту висвітлювалися у публікаціях М. Бурова [10], Е. Войниканіса [11], С. Вочтера [13], П. Красномовця [4], Б. Міттульстадта [13], П. Морхата [6], Е. Семенова [11], М. Таддео [13], Г. Тюляєва [11] та ін.
Питання співвідношення прав людини та штучного інтелекту актуалізував Папа Франциск, ініціювавши проведення 29 лютого 2020 року у Ватикані форуму на тему гуманності новітніх технологій.28 лютого 2020 року на конференції «Добрий алгоритм. Штучний інтелект: етика, закон, здоров’я», організованій Папською академією життя, представили «Римський етичний заклик» («Rome Call for AI Ethic»), в якому адекларовано етичні принципи для використання штучного інтелекту. Один із етичних закликів – нейромережі повинні поважати недоторканність приватного життя, працювати надійно, прозоро і без упереджень, передусім з огляду на права людини.
Недостатньо дослідженими на сьогодні залишаються питання правового погляду на штучний інтелект, зокрема його співвідношення з правами людини та правом інтелектуальної власності. Відбувається чимало дискусій з даного приводу, втім однозначних відповідей ні в доктринальних джерелах, ні в законодавстві ще немає.
Мета статті полягає в здійсненні аналізу правового регулювання суспільних відносин, що виникають у зв’язку з розвитком технологій штучного інтелекту.
Виклад основного матеріалу дослідження. На сьогодні відбувається багато дискусій на тему правосуб’єктності системи штучного інтелекту. Одні вважають, що машини зі штучним інтелектом треба наділити правосуб’єктністю нарівні з фізичними особами. Інші стверджують, що таким машинам слід надавати статус, подібний до юридичних осіб. На даному етапі не існує юрисдикцій, які б визнавали систему штучного інтелекту суб’єктом права.
Існує небезпека використання штучного інтелекту для отримання даних в комерційних або політичних цілях, найчастіше без відома окремих осіб. При розробці передових технологічних рішень необхідно керуватися моральними принципами. В іншому випадку технології штучного інтелекту можуть призвести до поширення тенденційних думок і неправдивої інформації, що врешті унеможливить суспільні дебати і дозволить маніпулювати думками мільйонів людей. Така нерівність, – коли хтось знає про нас ледь не все, а ми про них не знаємо нічого, – унеможливлює критичне мислення і гальмує свідоме здійснення свободи. Непомірно посилюється нерівність, а знання і багатства накопичуються в декількох руках, що може призвести до серйозних ризиків для демократичного суспільства [1].
Технологічні гіганти, на кшталт Alphabet (Google), Amazon, Facebook, IBM і Microsoft, а також такі особистості як Стівен Хокінг та Ілон Маск вірять, що зараз відповідний час для обговорення майже безмежного ландшафту штучного інтелекту. У багатьох випадках, це такий же новий рубіж для етики та оцінки ризиків, як і для нових технологій [2].
28 лютого 2020 року у Ватикані відбувся форум на тему «Гуманоцентричний штучний інтелект», організований Папською Академією «За життя» на завершення семінару, присвяченого питанням штучного інтелекту з точки зору етики, права та охорони здоров’я.
У форумі взяли участь Голова Європейського парламенту Давід Сассолі, Генеральний Директор ФАО Чю Донью, а також фахівці сфери інформаційних технологій. У зачитаній Папській промові відзначалося, що штучний інтелект перебуває в центрі епохальних перемін, які тепер переживає людство [3].
IBM і Microsoft відмовилися від деяких проєктів після того, як їм стали відомі цілі, для яких клієнти хотіли використовувати технологію штучного інтелекту. Ці компанії стануть першими, хто підтримає етичний кодекс. Які інші компанії підпишуться під «Rome Call for AI Ethic», і як будуть реалізовані ці принципи, наразі невідомо.
Використовуючи штучний інтелект, компанії можуть значно скоротити залежність від людської робочої сили, а значить, доходи отримуватиме менша кількість людей. В результаті, особи, які володіють компаніями, де роботу виконує штучний інтелект, отримуватимуть весь прибуток.
Як тільки ми почнемо розглядати машини як сутності, які можуть сприймати, відчувати та діяти, нам потрібно буде задуматися над зміною їхнього юридичного статусу. Чи повинні ми ставитися до них як до тварин з порівняним інтелектом? Чи будемо ми брати до уваги страждання, які «відчуває» машина? [4].
Одними із релевантних джерел легальних дефініцій досліджуваного поняття «штучний інтелект» є зарубіжні законодавчі акти та офіційні документи, що представляють в загальному обсязі особливий інтерес для правознавця-дослідника. Багато таких прикладів знайти сьогодні не вдається.
Так, згідно з пунктом 2 ст. 2 Базового закону Японії від 14.12.2016 No 103 «Про поліпшення використання даних публічного та приватного секторів» термін «технологія, пов’язана зі штучним інтелектом» означає технологію для реалізації таких інтелектуальних функцій, як навчання, умовивід і судження, що втілюються за допомогою штучних засобів і використання відповідних функцій, які реалізуються за допомогою штучних засобів [5; 6, c. 169].
У Канаді прийнято Монреальську декларацію про відповідальний розвиток штучного
інтелекту, яка містить етичні вказівки щодо розвитку штучного інтелекту та є кульмінацією досліджень і консультацій з громадськістю, експертами й політиками. Наголошено на тому, що розвиток та використання систем штучного інтелекту повинні сприяти створенню справедливого суспільства, та не повинні сприяти зменшенню відповідальності людей за прийняття рішень [7].
Згідно з твердженням Комісії з цивільно-правового регулювання в сфері робототехніки Європейського Парламенту зараз людство знаходиться на порозі ери, коли все складнішими стають роботи, андроїди та інші прояви штучного інтелекту, які, схоже, готові розв’язати нову індустріальну революцію. Ризики, пов’язані з цими новими взаємодіями, мають бути вирішені в терміновому порядку. Необхідно забезпечити, щоб набір основних фундаментальних цінностей був переведений на кожен етап контактів між роботами, штучним інтелектом і людьми. У цьому процесі особливу увагу слід приділяти безпеці людини, недоторканності приватного життя, цілісності, гідності та автономності» [8].
Як зазначено в пп. 1, 2 Рекомендацій Парламентської Асамблеї Ради Європи No 2102 (2017) від 28.04.2017 р. «Злиття з технологіями, штучний інтелект і права людини» зближення між нанотехнологіями, біотехнологіями, інформаційними технологіями та когнітивними науками, швидкості, з якими нові технології виходять на ринок – все це має суттєві наслідки не тільки для прав людини та способів їх здійснення, а й для фундаментальної концепції про те, що характеризує людину. Прониклива здатність нових технологій і їх додатків розмиває кордони між людиною і машиною, між інтерактивними й автономними діями, між фізичним і віртуальним світом, між природним і штучним, а також між реальністю і віртуальністю [9]. У Резолюції 2015/2103 (INL) Європейського парламенту від 16 лютого 2017 р. з рекомендаціями Європейської комісії щодо цивільно-правового регулювання робототехніки (далі – Резолюція 2015/2103 (INL)) наголошено на неможливості притягнення штучного інтелекту до відповідальності за дії, що спричинили шкоду третім сторонам.
Так, відповідно до Резолюції 2015/2103 (INL) відповідальність за завдання шкоди може бути покладено на одного з так званих агентів (англійською – human agent), а саме: на виробника, оператора, власника або користувача штучного інтелекту. При цьому під час установлення обсягу відповідальності з боку «агента» одним із головних аспектів визначено факт доведення можливості передбачення негативних наслідків і запобігання їм.
Безперечно, Резолюція 2015/2103 (INL) не є загальнообов’язковим актом і має лише рекомендаційний характер. Водночас, зважаючи на обраний Україною євроінтеграційний курс, з великою ймовірністю можна розраховувати, що подальше вдосконалення національного законодавства щодо правового регулювання штучного інтелекту разом із процедурою визначення відповідальності за помилки, що призвели до негативних наслідків, ґрунтуватиметься саме на вже сформованих стандартах Європейського Союзу [8].
Потенціал розширення прав і можливостей за допомогою використання робототехніки пов’язаний із комплексом ризиків, і через це повинен бути серйозно оцінений з точки зору захищеності, здоров’я і безпеки людини, гарантованості та забезпеченості свободи й недоторканності приватного життя, сумлінності та гідності, самовизначення та недискримінації, а також захисту персональних даних [8].
Загальні перспективи реформування правового регулювання щодо використання штучного інтелекту та його відповідальності за діяння можна згуртувати навколо трьох основних положень: позиціювання роботів із штучним інтелектом лише як об’єкта суспільних відносин; позиціювання роботів із штучним інтелектом лише як окремих суб’єктів правовідносин. За такого підходу роботи зі штучним інтелектом сприймаються лише як окремі самостійні суб’єкти суспільних відносин із можливістю відносно самостійно та в достатньому обсязі усвідомлювати й оцінювати значення своїх дій і дій інших осіб; позиціювання роботів із штучним інтелектом як окремих суб’єктів правоідносин, так і можливих об’єктів суспільних відносин [10].
Слід звернутися до складного питання, пов’язаного з розвитком технологій і юнітів штучного інтелекту: наскільки далеко ми можемо і готові зайти в делегуванні повноважень щодо прийняття важливих рішень юнітам штучного інтелекту, не створюючи при цьому критичних загроз людству та середовищу нашого проживання, зокрема не ризикуючи зменшенням обсягу прав людини та посяганням на них [6, с. 169–170].
Сучасні дослідження ризиків застосування штучного інтелекту можуть бути класифіковані на такі види: галузеві дослідження, що показують можливості та ризики імплементації штучного інтелекту в наявні галузі права – при цьому наслідки використання штучного інтелекту оцінюються з позицій окремих правових інститутів (відповідальність, персональні дані, кібербезпека тощо); інструментальні дослідження, спрямовані на пошук оптимального технологічного, економічного і правового ландшафту для використання наявних технологій штучного інтелекту; комплексний підхід до розробки спеціалізованого «права роботів» з урахуванням вимог кібернетичної етики та наявних програмних правил, імплементовані в машинні алгоритми за замовчуванням [11, c. 138–139].
Ще однією проблемою, яка виникає на етапі навчання алгоритму, є питання про те, хто є правовласником програми штучного інтелекту. Річ у тім, що штучний інтелект, як уже було відзначено вище, навчається на великих масивах даних. У ході навчання відбувається налаштування параметрів алгоритму під навчальну вибірку (тобто під великий масив даних), і ці підібрані параметри і є результатом процесу навчання (ключовий компонент для успішної експлуатації штучного інтелекту). Тому виникає питання, чи є створений алгоритм штучного інтелекту похідним твором від бази даних, на якій він навчався. Відповідь на це питання не є очевидною, якщо алгоритм штучного інтелекту вважати похідним твором від бази даних, розробнику важливо отримувати ліцензію на базу даних, яка допускає створення похідних творів.
На етапі експлуатації правові ризики застосування штучного інтелекту проявляються в інших аспектах. Розглянемо дані ризики на прикладі таких правових інститутів, як відповідальність за делікти, картельні змови і право інтелектуальної власності. Заподіяння шкоди життю або здоров’ю в процесі експлуатації систем штучного інтелекту не є рідкістю. Тепер дискусії про відповідальність за делікти, засновані раніше на суто теоретичних прикладах, ґрунтуються на фактах.
Так, в 2018 р безпілотна машина Uber збила пішохода, який переходив вулицю по пішохідному переходу. Широко обговорюються як в доктрині, так і на рівні державних органів питання, хто є відповідальним за заподіяння шкоди життю або здоров’ю при експлуатації штучного інтелекту [12].
Якщо говорити про потенційні напрями розвитку правового регулювання в цій сфері, то відзначимо, що розвиток законодавства в галузі регулювання розробки та застосування технологій і юнітів штучного інтелекту в цілому має здійснюватися відповідно до основних принципів права, в тому числі – принципу захисту прав людини, а також з урахуванням нових проблем, які обумовлюються штучним інтелектом.
Удосконалення законодавства в зазначеній сфері має носити комплексний характер. Хоча використання технологій і юнітів штучного інтелекту може призводити до порушення прав людини вже сьогодні, як правило, вважається, що такі проблеми є лише в певних сферах діяльності. Такий підхід є некоректним, оскільки створює помилкове відчуття безпеки у взаємодії людини зі штучним інтелектом, і ця проблема є багаторівневою та глибокою, вимагаючи, відповідно, прийняття пропорційних заходів для її вирішення [6, с. 187].
Крім того, необхідно враховувати, що нові інтелектуальні технології повинні слугувати людині, а не навпаки [13, с. 21].
На рівні міжнародних організацій, як міжурядових, так і неурядових, приділяється належна увага удосконаленню правового регулювання в даній сфері. У пункті 8 Рекомендації Парламентської Асамблеї Ради Європи No 2102 (2017) від 28.04.2017 «Злиття з технологіями, штучний інтелект і права людини» ПАРЄ закликає Комітет Міністрів доручити відповідним органам Ради Європи розглянути питання про те, як інтелектуальні предмети і в цілому злиття з технологіями і пов’язані з цим соціальні та морально етичні наслідки в сфері генетики та геноміки, неврології і великих даних кидають виклик різним аспектам прав людини [9].
На особистому рівні цифрова епоха спричиняє зміну сприйняття простору, часу й власного тіла: у людини, з одного боку, складається враження відсутності будь-яких меж, а з іншого – ототожнення з іншими. В цьому контексті дедалі важче визнавати й шанувати відмінності. А на соціально-економічному рівні, користувачів цифрових технологій часто зводять до «споживачів», підпорядкованих приватним інтересам небагатьох. Зі слідів, залишених користувачами в інтернеті, алгоритми вилучають дані, що дозволяють спостерігати за їхніми звичками, використовуючи їх, без їхнього відома, для комерційних чи політичних цілей. Така несправедливість є перешкодою для критичного мислення та свідомого використання свободи. З іншого боку, ці небезпеки не повинні закривати перед нами потенційні можливості, які пропонують нові технології. Вони є ресурсом, що може принести плоди добра.
Як зазначав Папа Франциск, важливим є сприяння створенню нової сфери етики нашого часу – так званої «алгор-етики» (італ. algor-etica) – термін, який він вперше вжив у своїй промові до учасників міжнародної зустрічі на тему «Сприяти гідності дитини в цифровому просторі» в листопаді 2019 року.
Вагомий внесок у цю сферу може зробити Соціальна доктрина Церкви, основними принципами якої є людська гідність, справедливість, субсидіарність й солідарність. «Алгор-етика», за його словами, може стати мостом, аби ці принципи знайшли конкретне втілення в цифрових технологіях завдяки якісному міждисциплінарному діалогові [3].
Висновки. Технології штучного інтелекту дуже швидко розвиваються, єдині підходи до оцінки ризиків, пов’язаних з їх використанням, відсутні. Необхідно сформувати міждисциплінарний підхід до вивчення економічних, правових, політичних і соціальних аспектів застосування технологій штучного інтелекту.
Питання, пов’язані з появою штучного інтелекту, мають не стільки правовий, скільки філософський характер: як сконструювати цей інтелект таким чином, щоб жодна група людей не зуміла отримати з його допомогою переваги над іншими людьми, і щоб штучний інтелект не спрямував свою силу проти людства, а навпаки – використовувався на його благо.
На даному етапі правове регулювання в сфері використання технологій і юнітів штучного інтелекту знаходиться на стадії становлення та початкового розвитку. Ще зарано говорити про досягнення в практичній реалізації конкретних комплексних заходів, спрямованих на забезпечення поваги прав людини. Зараз подібного роду заходи приймаються, в основному, в сфері захисту конфіденційності особистих даних.
Необхідно заохочувати нові форми регулювання, щоб сприяти прозорості та дотриманню етичних принципів, правових парадигм та освітніх дій, особливо щодо новітніх технологій, які потенційно можуть порушувати права людини.
Список використаних джерел:
1. Academy for life. Rome Call for AI Ethics Rome, February 28th, 2020. URL: http://www.academyforlife.va/content/dam/pav/documenti%20pdf/ 2020/ CALL%2028%20febbraio/AI%20Rome%20Call%20x%20firma_DEF_DEF_.pdf (Дата звернення: 10.03.2020).
2. Ватикан разом із технологічними компаніями Microsoft та IMB розробив звід етичних принципів для розвитку штучного інтелекту. URL: https://bit.ua/2020/03/vatikan-2/ (Дата звернення: 10.03.2020).
3. Папа Франциск: Дебати про людяність новітніх технологій 29 лютого 2020. URL: https://synod.ugcc.ua/data/papa-frantsysk-dbaty-pro-lyudyanist-novitnih-tehnologiy-2524/ (Дата звернення: 10.03.2020).
4. Красномовец П. Девять главных этических проблем искусственного интеллекта. URL: https://ain.ua/2016/11/07/devyat-glavnyx-eticheskix-problem-iskusstvennogo-intellekta/ (Дата звернення: 10.03.2020).
5. Prime Minister of Japan. Basic Act on the Advancement of Public and Private Sector Data Utilization. Act No. 103 of December 14, 2016. URL: http://www.japaneselawtranslation.go.jp/law/detail_main?re=01&vm=04&id=2975 (Дата звернення: 10.03.2020).
6. Морхат П. М. Искусственный интеллект: правовой вигляд : Научная монография / РОО «Институт государственно-конфессиональных отношений и права». М. : Буки Веди, 2017. 257 с.
7. University of Montreal’s Technosocial Innovation Centre The Montreal Declaration for a Responsible Development of Articial Intelligence. (2017). URL: https://www.canasean.com/the-montreal-declaration-for-the-responsible-development-of-artificial-intelligence-launched/ (Дата звернення: 10.03.2020).
8. The European Parliament. Committee on Legal Affairs. Draft Report with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)), 27.01.2017. URL: https://www.europarl.europa.eu/doceo/document/A-8-2017-0005_EN.html (Дата звернення: 10.03.2020).
9. Parliamentary Assembly. Technological convergence, artificial intelligence and human rights. Recommendation 2102. (2017). URL: https://assembly.coe.int/nw/xml/XRef/Xref-DocDetails-EN.asp?FileID=23726 & lang=EN (Дата звернення: 10.03.2020).
10. Буров М. Хто несе відповідальність за помилки штучного інтелекту? URL: http://uz.ligazakon.ua/ua/magazine_article/EA012676 (Дата звернення: 10.03.2020).
11. Войниканис Е. А., Семенова Е. В., Тюляев Г. С. Искусственный интеллект и право: вызовы и возможности самообучающихся алгоритмов. Вестник ВГУ. Серия: Право. 2018. No 4. С. 137–148.
12. European Commission. Workshop on liability in the area of autonomous systems and advanced robots and Internet of Things systems. 2017. URL: https://ec.europa.eu/digital-single-market/en/news/workshop-liability-area-autonomous-systems-and-advanced-robots-and-internet-things-systems (Дата звернення: 10.03.2020).
13. Cath С., Wachter S., Mittelstadt B., Taddeo M., Floridi L. Artificial Intelligence and the «Good Society»: The US, EU, and UK Approach. P. 21. URL: https://link.springer.com/article/10.1007%2Fs11948-017-9901-7 (Дата звернення: 10.03.2020).