Доцент Політехніки розвіяв міфи про штучний інтелект

Ігор Голод, Центр комунікацій Львівської політехніки
Фото із заходу

У межах імплементації проєкту «Європейські студії для технічних спеціальностей у Національному університеті "Львівська політехніка"» відбулося засідання серії Eurolibrary на тему, яка не могла не заінтригувати, — «Колапс персональної автономності: похмурі майбутності штучного інтелекту».

«Скриня Пандори»

Спікер засідання, доцент кафедри політології та міжнародних відносин Інституту гуманітарних та соціальних наук Львівської політехніки й автор книги «Основи футурології», а також численних публікацій про виклики інформаційного суспільства, Петро Сухорольський передусім констатував, що штучний інтелект (ШІ) у його теперішніх варіантах, доступних широкому загалу, здебільшого негативно впливає на три головні умови особистої автономності людей, тобто на розвиток ментальних здібностей, які дають їм змогу бути автономними, наявність адекватного переліку різноманітних доступних опцій і відносну незалежність, що відкидає примус чи маніпуляції.

За словами спікера, прості люди з подачі технологічних компаній оцінюють ШІ на основі нічим не обґрунтованих міфів про його «велич» і «надлюдську» сутність, а не реальних технічних параметрів. Утім він уже спричинився до наповнення інфопростору незліченною кількістю сурогатного й вторинного контенту, не пов’язаного зі справжньою різноманітністю та творчістю, а також відкрив величезну «скриню Пандори» потенційних високотехнологічних маніпуляцій людьми в інтересах бізнесу та авторитарної влади.

Спікер також презентував студентам результати недавнього дослідження Financial Times про стрімке зниження інтелекту людства впродовж останніх десятиліть. Неабияк посприяли цьому соцмережі, новий формат контенту, нескінченний потік відео й маніпулятивні алгоритми. Тож особливу увагу П. Сухорольський зосередив на питаннях правового захисту персональної автономності в Європі, зокрема на прикладі нормативних актів ЄС та Ради Європи, які стосуються регулювання ШІ.

Маніпуляції здійснюють для вигоди

Відповідаючи на запитання «Як саме негативно впливає ШІ на ментальні здібності людей?» П. Сухорольський розповів Центру комунікацій Львівської політехніки:

— Концепція персональної автономності передбачає, що людина сама є господарем свого життя, сувереном свого щастя, сама повинна дозріти до певного рішення, яке стосується її долі, робити в різний час різний вибір, включно зі зміною своїх преференцій.

Тим часом алгоритми на сайтах в інтернеті приймають на основі деталізованої інформації про людину рішення замість неї. Причому вони зазвичай зважають лише на поверхневий рівень її інтересів, ігноруючи глибинні цілі й прагнення.

Багато технологічних напрацювань щодо впливу на людей за допомогою розумних алгоритмів є власністю компаній, які вкладають у свої розробки значні кошти. Головна мета їхнього впливу — маніпуляції людиною, зокрема адаптивне формування її преференцій.

Розумні алгоритми дають змогу тонко підлаштовувати параметри під кожну конкретну людину навіть без використання й зберігання її персональних даних. Поведінку людини та процес прийняття нею рішень під час користування сайтами аналізують на нейрологічному рівні, щоб досягати максимального ефекту.

Маніпуляції здійснюються цілеспрямовано в інтересах конкретних суб’єктів задля комерційної вигоди. Але цілком можливі й варіанти досягнення політичних та інших цілей. Усі вони загрожують персональній автономності людини, зокрема її здатності приймати відносно самостійні рішення.

Навколо ШІ виникають міфи, які викривлюють сприйняття, не даючи адекватно оцінити його справжні можливості. В орієнтованому на маси контенті його зображають істотою, яка має емпатію, думає, вирішує, систематизує, відчуває, а також як потужну особистість, що не помиляється й рухається у своєму розвитку до надлюдини чи божественної сутності.

Про ШІ вже пишуть як про наркотик, який викликає залежність. Йому розповідають про свої проблеми як психологові чи священнику. Все це дуже далеке від справжньої сутності його алгоритмів. Адже коли ми послухаємо професійних «технарів», які розробляють ШІ, то переконаємося: вони, безперечно, розуміють, що ШІ «галюцинує» не по-справжньому і його «інтелект» умовний. Досить прочитати визначення інтелекту в енциклопедичному словнику, щоб зрозуміти: більшість його ознак геть відсутні у ШІ в його теперішній формі.

Студенти випередили викладачів

— ШІ позбавляє людей потреби думати?

— Судячи з того, як теперішні студенти здебільшого використовують ШІ, я, безумовно, з цим стикаюся. Студенти почали застосовувати ШІ в навчальному процесі раніше за викладачів. Щойно великі мовні моделі з’явились у вільному доступі, їх одразу стали масово використовувати для виконання студентських робіт.

Можливо, багато студентів розуміють, що, зловживаючи штучним інтелектом під час написання курсових чи дипломних робіт, вони не розвиваються, але для декого з них він уже став чимось на кшталт наркотику, від якого не так просто відмовитися. Це схоже на ситуацію з курінням — багато хто хоче кинути курити, але далеко не всім це вдається. Так само студенти думають, що десь потім вони будуть самі вчитися, без допомоги ШІ, але поки що в них немає на це часу. Ще одну роботу виконають завдяки ШІ, а вже наступну — без нього...

— ШІ закомплексовує своїм авторитетом?

— Про це треба запитати психологів. Багато хто вважає, що ШІ об’єктивніше подає інформацію, ніж люди. Одне з досліджень доводить, що коли ШІ поширює упередження, приміром щодо раси й статі, то йому довіряють більше, ніж тоді, коли ці упередження поширюють люди. І в цьому велика небезпека.

— ШІ вкладає у свідомість людей те, що вони хочуть чути? Може, теж застосовує психологію?

— Для ефективної маніпуляції людьми (тобто руйнування третьої головної умови їхньої особистої автономності — незалежності) ШІ використовує величезні обчислювальні потужності й бази інформації. Систему формують саме такою, щоб вона імітувала емпатію й вдавала людину.

Математик і логік Алан Тюрінг, якого вважають засновником різних напрямів комп’ютерної науки, зокрема дослідження ШІ, запропонував у 1950 році свій відомий тест для визначення можливості машини мислити, який полягає в її здатності ввести людину в оману. Інакше кажучи, ШІ буде справжнім тоді, коли людина не зможе відрізнити його від іншої людини в діалозі. Відповідно, індустрія поставила собі за мету зробити ШІ антропоморфним — таким, що вдає людину.

Ще одна проблема полягає в тому, що все це відбувається тотально непрозоро. Для порівняння: пошукові системи типу Google теж непрозорі, але вони хоча б дають посилання на інформацію з конкретних джерел, за якими ми можемо судити про достовірність. Можливо, ця інформація підібрана тенденційно, але принаймні ми можемо бачити, звідки її взяли.

Коли ж великі мовні моделі надають результати, ми не бачимо жодних джерел чи посилань. Але люди не дуже цим переймаються — їм найчастіше досить готової відповіді.

Оскільки нам не відомі джерела та алгоритми і ми не знаємо, чому система видала нам саме такі результати, інтереси й ідеологія, які за цим стоять, так само від нас приховані. Приміром, у США президентом став Трамп — і за лічені тижні ідеологія щодо багатьох питань там зробила розворот на 180 градусів.

Показово, що власники найбільших ІТ-компаній — так звані техноолігархи — дуже чутливо реагують на зміну політики й радо пропонують свої гроші та підтримку новій владі. А така підтримка цілком може передбачати високотехнологічні маніпуляції суспільством за допомогою ШІ в інтересах влади. І в цьому криється велика небезпека.

Великі корпорації лобіюють у парламентах, включно з Європейським парламентом, таке регулювання ШІ, щоб він обов’язково був під надійним контролем. Для того щоб монополізувати розробки в галузі ШІ, поширюють міфи, що без належного контролю він може знищити людство, бо потрапить до рук радикалів або набуде власної свідомості.

Хоча низка керівників лабораторій ШІ у цих корпораціях визнають, що до винайдення сильного ШІ ще промине кілька десятиліть, можливо 40–50 років, і вони навіть у принципі не знають, як зробити його таким, як людина, це не зупиняє «регуляторів», які вже зараз готові боротися зі «страхітливим ШІ», насправді, звісно, щоб монополізувати цю галузь.

Навіюють підміну понять

— Але ж маємо прецедент з ядерною зброєю, яку не вдалося монополізувати.

— Ядерної зброї Україна не має, зате децентралізація розробок у галузі ІТ, зокрема й ШІ, вже зараз допомагає нам на фронті. І ми можемо купувати компоненти у маленьких виробників на відкритому ринку, зокрема й із не зовсім дружніх до нас країн.

Уявімо собі, що ця галузь монополізована кількома компаніями з великих держав під їхнім контролем. Тоді ми не мали б що протиставити ворогу.

— Як ШІ негативно впливає на незалежність людей?

— У романі Олдоса Гакслі «Прекрасний новий світ» усі мислять однаково. І коли приходить «дикун» Джон, який бачить світ інакше й відкрито розповідає про це, його навіть не затримують і не переслідують, бо ніхто не може серйозно сприйняти його слова. Така ситуація може скластися передусім унаслідок монополізації інформації, зокрема тоді, коли всі звертатимуться зі своїми запитаннями до тих самих великих мовних моделей.

Уявімо собі, що на всій нашій планеті запанував єдиний авторитарний режим, який годі оцінити ззовні, бо ніхто навіть не уявляє, що може бути альтернатива. Це як світ, у якому є СРСР, але немає Заходу. І тому навіть розвал тоталітарної імперії внаслідок її неспроможності не спричиняється до побудови чогось відмінного й кращого.

Великі виробники програмного забезпечення, будучи світовими монополістами, без відома та згоди суспільства закладають у свої платформи й сервіси конкретні правила поведінки. Відповідно, ми можемо зробити тільки так, а не інакше. І ми навіть не усвідомлюємо, що може бути інакше, бо бачили тільки такий сервіс, і він діє тільки за такими правилами. І всі нібито альтернативні сервіси приблизно такі самі.

— Тобто не можна довіряти ШІ регламентувати геть усе?

— Тим, хто намагається монополізувати сферу ШІ, вигідна підміна понять. Вони навіюють уявлення, що ШІ сам приймає рішення. І цим відвертають громадську думку від головної проблеми — що ним керують певні люди. До такого ШІ, який сам, без впливу на нього людей, прийматиме усвідомлені рішення, ще дуже далеко.

А теперішня головна проблема — у тому, що на людей, на політику прямо й навіть неприховано впливають конкретні власники корпорацій, як-от Ілон Маск, або авторитарна влада. В цьому криється велика небезпека.

Ми вже бачимо, як застосовується цензура на прикладі китайської моделі ШІ, що замовчує певні політичні питання. Але це ще дуже примітивні маніпуляції — потенціал тут набагато вищий. І найголовніше, що теперішнє суспільство, здається, взагалі цим не переймається.

Наразі не винахідник

— ШІ здатний творити, винаходити?

— За теперішнього рівня розвитку не здатний.

— Життя постійно ставить перед нами нові виклики, на які потрібно відповідати. І не завжди раціональне раніше буває таким знову.

— Це питання зараз дуже широко вивчають — чи можна зробити ШІ, який справді творчо розв’язував би нові завдання. Проте природа свідомості людини ще не до кінця зрозуміла.

Цим питанням переймається багато наук, включно з нейрологією чи філософією. Є багато теорій, але немає однозначного висновку — що таке свідомість, звідки беруться вона й творчість, яка роль емоцій у цьому процесі.

Є навіть теорії про пов’язаність свідомості з квантовими процесами. Якщо дійсно воля і свідомість народжуються на квантовому рівні — тоді взагалі нереально створити справді творчий ШІ. Але в теперішніх умовах неможливо підтвердити чи спростувати ці теорії експериментально.

— Як ШІ вливає на адекватний перелік доступних опцій?

— Теоретики персональної автономності стверджують, що адекватний перелік доступних опцій — це коли є справжня різноманітність.

— ШІ її позбавляє?

— Контент, яким наповнюють інтернет за допомогою ШІ, шаблонний. На перший погляд, він здається відносно різноманітним, але насправді суть та сама.

Якщо інтернет наповнити мільйонами сурогатних копій, знайти інше стане практично неможливим. Ймовірно, великі мовні моделі можуть до певної міри забезпечувати різноманітність, проте зараз усе рухається в бік їх монополізації. Наприклад, коли дослідники аналізують частоту вживання слів у наукових статтях, то натрапляють на такі слова чи словосполучення, яких раніше було дуже мало, але за останні два роки їх використання різко зросло. Це відбувається тому, що автори статей звертаються по допомогу до ШІ, щоб він скомпонував певні частини статті чи підкорегував мову. І він мільйонам людей корегує однаково. Так втрачається мовна різноманітність.

Втеча від реальності

— ШІ тисне на людей своєю престижністю?

— Теоретики персональної автономності дійшли висновку, що примус і маніпуляція — те саме. Маніпуляція ніби м’якша, але досягає такого ж результату, особливо критичною масою маніпуляцій, яких стає дуже багато. Навіть якщо система не має даних про людину, за допомогою розумних алгоритмів можна оцінити патерни її поведінки, приховані від неї самої. Тому надавачі послуг часто знають про людину значно більше, ніж вона сама знає про себе.

— Протистояти маніпуляціям можливо?

— Так, якщо диверсифікувати інформацію. Якщо ж її монополізує одна компанія, послугами якої всі користуються, тоді ми безсилі перед нею.

— «Колапс персональної автономності: похмурі майбутності штучного інтелекту» — це ще не остаточний висновок?

— Тема засідання серії Eurolibrary не стверджує, що майбутність ШІ обов’язково буде похмурою. На засіданні йшлося про необґрунтованість домінантної позиції, яку читаємо в інтернеті, — що ШІ вирішить усі наші проблеми. Такі ідеї поширені тому, що за ними стоять великі компанії, які впливають на глобальні медіа. Багато хто сприймає це за правду, але насправді ми не знаємо її. Тобто невідомо, яким буде майбутнє ШІ. Наше майбутнє буде таким, яким ми його зробимо.

— Чому люди довіряють навіюванням замість мислити автономно? Тому що підказки звільняють від потреби напружувати мозок?

— По-перше, вже створене ідеологічне середовище, яке стверджує, що ШІ — це «круто». Такі міфи утверджують компанії, які продукують ШІ, щоб банально продати більше своїх послуг і залучити у свою орбіту більше постійних користувачів.

По-друге, люди дуже перевантажені інформаційно й шукають нагоди втекти від цього напруження. ШІ дає те, що хочуть люди, — прості відповіді на всі запитання. Приблизно так само багато людей розучилися рахувати в умі після появи калькуляторів.

Екзистенційна загроза?

— Десятки експертів підтримали заяву на вебсторінці Центру безпеки ШІ про те, що «зменшення ризику вимирання (людства) від ШІ має бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, як-от пандемії та ядерна війна».

— Ідеологія, яка акцентує на екзистенційних загрозах людству, близька представникам Кремнієвої долини (регіон у Каліфорнії зі значною щільністю високотехнологічних компаній. — І.Г.), бо вони виросли на науково-фантастичних творах, у яких розповідалося про роботів і ШІ. Тому в них сформувалася відповідна свідомість. Тобто щодо кожної заяви про надмірні загрози від ШІ потрібно визначати — конкретно про які загрози там ідеться, хто під нею підписався, кого він представляє.

— Приміром, співзасновник Apple Стів Возняк заявив, що «системи ШІ з людським і конкурентоспроможним інтелектом можуть становити серйозні ризики для суспільства та людства».

— Це формулювання ні до чого не зобов’язує. Коли можуть, то в якій часовій перспективі?

— На засіданні серії Eurolibrary ви акцентували на питаннях правового захисту персональної автономності в Європі, зокрема на прикладі нормативних актів ЄС та Ради Європи, які стосуються регулювання ШІ. А як із цим в Україні?

— Правові акти ЄС і Ради Європи в галузі ШІ дуже різняться. Регламент ЄС спрямований передусім на створення сприятливого середовища для розвитку ІТ-технологій та ведення високотехнологічного бізнесу, тоді як Конвенція Ради Європи зосереджена на питаннях прав людини, включно із захистом персональної автономності.

Україна, безумовно, буде імплементувати ці акти. Проте на багато питань щодо регулювання ШІ поки що немає відповіді. Головне з них те, як поєднати різні інтереси в цій сфері в умовах, коли вони прямо конфліктують між собою.

Фото із заходу Фото із заходу Фото із заходу Фото із заходу Фото із заходу Фото із заходу Фото із заходу