Новий дивний світ штучного інтелекту

  • 8 апреля, 14:00
  • 4292
  • 0

Увесь минулий рік ІТ індустрія жила під яскравою зіркою генеративного штучного інтелекту, найвідомішим з яких є чат-бот великої мовної моделі ChatGPT. Творці таких систем не скупилися на слова про їх революційність та перспективність, інвестори наввипередки вкладали гроші в ІТ корпорації та невеликі стартапи боячись не встигнути на потяг генеративного ШІ, а ми з подивом та захватом спостерігали за карколомним ростом акцій Nvidia. Своєю чергою, різного роду оглядачі та аналітики знову лякали нас тотальним безробіттям чи навіть технологічним апокаліпсисом, або навпаки, малювали фантастичне майбутнє з неймовірними можливостями. Та ось перший ажіотаж пройшов, курява трохи вляглась і ми можемо спокійно та зважено проаналізувати наслідки цієї технології.

У мене для вас, як це часто буває, дві новини, одна хороша, а друга погана. Хороша новина полягає в тому, що тотальне безробіття нам не загрожує. Адже хто б що не говорив, до універсального штучного інтелекту людського рівня нам ще дуже далеко. Перші алгоритми ШІ з’явилися в 1960-х роках, а праці, що заклали основи нейронних мереж – ще у 1940-х. Але як це часто буває з новими технологіями, початковий ентузіазм змінився на розчарування і настала так звана зима штучного інтелекту. Та як ми знаємо, за зимою приходить весна і починаючи з 2000-х років оптимізм щодо ШІ поступово почав зростати, особливо це було пов’язано з його підгалуззю машинного навчання. У той час IBM Watson наробив багато галасу завдяки перемозі в ігровому шоу Jeopardy. А ще була AlphaGo розроблена компанією Google DeepMind, що здобула не одну перемогу у грі в ґо. Усі знову заговорили про революцію у розвитку штучного інтелекту. Інвестиційні фонди, банки та інші організації прогнозували втрату десятків, а то і сотень мільйонів робочих місць по всьому світу. Друкувалася величезна кількість книг та статей, які передбачали кардинальні зміни у житті людей, що принесуть новітні технології.

Але нажаль, або на щастя, цього не сталося. Якщо поглянути на ринок праці США, то ми побачимо, що рівень безробіття тут мінімальний за останні 50 років, та й у світі не спостерігається якихось особливих проблем. Звичайно, кожен новий цикл автоматизації забирає роботу у певної частини працівників, але він, як правило, є джерелом для нових професій та робочих місць. І якщо вже говорити відверто, загальновизнаної теорії штучного інтелекту досі не винайшли. Нам його так довго обіцяли, що не отримавши бажаного ми згодилися називати штучним інтелектом те, що ним не являється. Для цього був придуманий термін слабкий штучний інтелект, що трансформувався у коротку та влучну назву ШІ. Ось такий маркетинговий трюк, але за великим рахунком, усі ці системи є лише інструментами в руках людини і я спробую показати це на прикладі роботи програміста.

Та зайду трохи здалеку, з проблеми подальшої мініатюризації технологічного процесу виготовлення транзисторів. Хоча TSMC заявляє про плани запустити виробництво 1-нм транзисторів до 2030 року, а Intel планує запустити 1-нм техпроцес уже до кінця 2027 року, подальший прогрес у цій сфері виглядає досить проблематичним. На його заваді може стати не тільки фізика, тобто розмір самого атома, а й економіка. Не секрет, що ціна кремнієвих пластин росте з кожним новим техпроцесом і зрештою може стати непідйомною для кінцевого споживача. Негативні наслідки такої ситуації важко переоцінити, адже весь прогрес ІТ технологій тримався на постійному зменшенні розмірів транзистора, що здобув назву закону Мура. Без нього продуктивність наших гаджетів просто перестане рости, адже потребуватиме більшої кількість транзисторів, а без їх мініатюризації це призведе до збільшення фізичних розмірів пристроїв та їх енергоспоживання, що є досить проблематичним у випадну смартфонів, планшетів чи навіть ноутбуків та персональних комп’ютерів.

Все більше обчислень буде переноситися у хмару, але і ціни кусатимуться через затрати на додаткове обладнання та електрику. Постійне зменшення розмірів транзисторів було наче чарівною паличкою, що дозволяла мати більшу кількість обчислень та пам’яті при тому самому споживанні енергії і фізичному розмірі чипів. Крім того, хоча ціна і росла через ускладнення технологій виробництва та інфляцію, але не так швидко, як у випадку нарощування потужності простим збільшенням кількості процесорів чи процесорних ядер. Відсутність прогресу у цій галузі може стати серйозним гальмом для цифрової економіки, а зважаючи на те, що вона є драйвером економіки в цілому, то наслідки такого сповільнення можуть бути колосальними, від енергетичної кризи до загальносвітової рецесії.

То який з цього вихід? Уже не перше десятиліття учені намагаються створити квантовий комп’ютер, як заміну класичному. Та не зважаючи на певні досягнення у цій області, розробити універсальний обчислювальний пристрій, який матиме надійний механізм корекції помилок поки що не вдалося. Для розв’язання практичних задач потрібно багато мільйонів, якщо не мільярдів кубітів, які мають знаходитися у стабільному квантовому стані достатню кількість часу, що являє собою неймовірно складну задачу. У перспективі це може стати революційним винаходом, який допоможе зробити прорив у розвитку того ж таки штучного інтелекту, генетики, біохімії, фармакології та інших галузей науки і техніки.

Отже, не рахуючи якихось проривних технологій типу квантових комп’ютерів, які можуть з’явитися у найближчому майбутньому, а можуть і не з’явитися, очевидним варіантом є використання спеціалізованих чипів для різних типів обчислень, таких як GPU, NPU (нейропроцесор) та інші. Як приклад, можна навести недавню новину про розробку компанією Intel кастомного чипу для Microsoft. Це дозволяє більш ефективно проводити обчислення шляхом апаратної архітектури, а не елементарної бази. Думаю, що таких рішень з кожним днем буде ставати все більше і більше.

Іншим, доволі перспективним способом підвищення продуктивності може бути оптимізація як існуючого програмного забезпечення, так і того, що знаходиться в розробці. Малоймовірно, що сучасні програмісти будуть як у сиву давнину рахувати кожен такт процесора або байт пам’яті, адже в цьому випадку розробка ПЗ потребуватиме набагато більше часу та зусиль, а отже виллється в кругленьку суму. Більш раціональним рішенням є автоматизація такого процесу, тобто на першому етапі вихідний код конвертується в оптимізований варіант, а далі відбувається звичайний процес компіляції. Мало того, такий код можна не тільки оптимізувати, а й перевіряти на помилки та вразливості до кібератак. Варто зазначити, що подібні системи уже існують, але є доволі обмежені як за функціональними, так і за якісними характеристиками. Тому, в перспективі, сучасні системи штучного інтелекту можуть підняти можливості цих інструментів на зовсім інший рівень. Ще однією цікавою утилітою є розумний помічник (copilot) розроблений для допомоги користувачам шляхом автодоповнення коду та призначений для пришвидшення процесу кодування.

Отже, ідея полягає в тому, що такі системи ШІ не замінять звичайного програміста, а зроблять його роботу більш якісною та продуктивною. Можливо, одного дня сильний штучний інтелект і зможе самостійно писати код, але ті системи які доступні зараз на це просто не здатні. Звичайному програмісту постійно доводиться працювати з різноманітною інформацією, такою як опис задачі чи дефекту, документацією до дизайну чи готового продукту, логами, скріншотами, блок-схемами та багато з чим іншим. Я уже не кажу про взаємодію з клієнтами, які не завжди можуть чітко описати свої вимоги та потреби. Там де немає очевидного рішення або воно занадто складне, тільки людина зі своєю логікою та здоровим глуздом здатна на даний час вирішувати подібні завдання. Hе зважаючи на те, що час від часу у новинах з’являються заяви від іменитих ІТ корпорацій та маловідомих стартапів про прорив у розв’язанні цієї проблеми, особисто я ставлюся до цього скептично.

Для прикладу, днями компанія Cognition представила Devin – новий інструмент, який здатен використовувати незнайомі технології, створювати додатки та знаходити і виправляти баги, проте, на мою думку, такі системи навряд чи зможуть досягти людського рівня. Найімовірніше, їхньою межею є автоматизація рутинних задач та механічної роботи або виконання більш складних інженерних завдань у парі з програмістом. Тут проблема може бути в іншому, у високому порозі входу в професію, а також у розриві між високо- та низько-кваліфікованими робітниками, адже задачі середнього рівня складності є найбільш вигідними для автоматизації в економічному плані. Та думаю, що розв’язати це питання допоможе старе добре наставництво.

Цікаво, як практики, які були більш притаманні доіндустріальній епосі відроджуються на новому технологічному рівні. Скоріш за все, такий стан справ спостерігається не тільки в програмуванні, а й у багатьох інших галузях. Загальний висновок, який можна зробити зі сказаного раніше полягає у подальшій інтеграції і синергії людини та машини, як найбільш перспективного шляху розвитку технологій та бізнесу. Ті ж компанії, що ставлять за мету повну заміну людей на автоматизовані систему будуть знову розчаровані.

Ну що ж, звучить доволі оптимістично, то яка ж тоді погана новина? Коротка відповідь полягає в діалектичній природі нашого світу, тобто у тому, що будь-який винахід можна використати як на добро, так і на зло. І тут дозвольте мені ще один ліричний відступ. Майже всю свою історію людство жило в умовах дефіциту не тільки їжі, а й інформації. Тому, як тільки прогрес в аграрній сфері дозволив виробляти достатню кількість продуктів харчування, хоча і не всюди, в цілому світі стала гострою проблема надлишкової ваги. Річ у тому, що людський мозок не завжди здатен пручатися спокусі висококалорійної та солодкої їжі, еволюція запрограмувала нас на якомога більше її споживання, адже другого шансу в суворі доісторичні часи могло і не бути.

Схожа, якщо не на багато гірша, ситуація зі споживанням інформації. Ми проводимо час за багатогодинними переглядами фільмів, серіалів, відео у YouTube або TikTok, за читанням стрічок новин чи постів у соціальних мережах та просто граючись у відеоігри, що є причиною багатьох негативних наслідків, зокрема зменшення рівня критичності нашого сприйняття. І це не дивно, адже в такому шаленому потоці інформації ми уже не встигаємо як слід її обдумати та проаналізувати. Уже зараз помітні серйозні наслідки цього стану речей у вигляді інформаційних бульбашок, підйому популізму у світі та радикалізації в суспільствах. Через велику кількість трактувань якоїсь події виникає враження, що все дуже складно та незрозуміло, а саму правду годі і шукати. Так виникає постправда та моральний релятивізм, що є характерною ознакою нашого постмодерного світу. І тут нового удару, який цілком може стати нокаутуючим, завдає генеративний штучний інтелект.

Сучасний світ захлинається у потоці фейків. Навіть якщо це звучить занадто радикально, то цілком можливо, що останні досягнення у галузі ШІ можуть зробити це реальністю. Як було сказано вище, людський мозок уже тепер не справляється з тією навалою інформації, що виливається на нього з Інтернету. А що тоді робити, коли ця ситуація погіршиться навіть не в рази, а на порядки? Чи є у нас, як у суспільства, межа сприйняття інформації, перетин якої загрожує нам руйнуванням державних інститутів та розривом самої соціальної тканини? Важливі питання, на які людям уже скоро прийдеться дати відповідь. Особливо вразливими перед цією загрозою видаються ліберальні демократії де цінують свободу слова. Може статися так, що сучасні технології стануть не сумісними з відкритим суспільством та будуть загрожувати самому його існуванню.

Ми так довго боялися повстання машин, що можемо не помітити зовсім інших загроз. В цьому плані фільм Джеймса Кемерона Термінатор може зіграти з нами злий жарт, хоча на мою думку, кіборги у ньому є лише метафорою людини вбивці, а ядерна війна, яку почала мережа Скайнет є відображенням страхів тогочасного суспільства перед можливою війною між Сполученими Штатами та Радянським Союзом. Сам же штучний інтелект у цьому фільмі є лише красивим сценарним ходом, який не стільки передбачає майбутнє, як відображає технофобію, що притаманна американцям. Отже, замість повстання машин ми можемо отримати повстання ботів.

Та все ж сподіваюся, що людство знайде дієву протидію таким тенденціям. Адже технології можна використовувати не тільки для генерації фейків, а й для протидії цьому. Ми і надалі будемо спостерігати справжню битву між різними системами ШІ, одні з них створюватимуть шкідливий контент, а інші будуть його ідентифікувати та перешкоджати подальшому поширенню мережею. Крім того, величезне значення має інформаційна гігієна. Насправді у нас є вибір що читати, слухати та дивитися. Так, простори YouTube та ефіри телеканалів заполонили псевдо-експерти, які продають аудиторії лише власні фантазії, приправлені емоційним виконанням та безапеляційністю, але там є і корисна інформація. Для того, щоб її знайти потрібно вміти фільтрувати контент, вибирати правильних коментаторів, орієнтуючись на їхню репутацію та професійний досвід.

Надзвичайно важливо обмежувати споживання інформації до рівня, який дозволить її критичне та усвідомлене сприйняття. Думаю, що з часом ми зможемо випрацювати норми та підходи до життя у цьому непростому світі. Нові технології це не вирок, потрібно тільки пристосуватися до них та пристосувати їх до себе. Вся історія людства показує, що ми надзвичайно адаптивні істоти, які знаходять рішення у здавалося безнадійних ситуаціях. Звичайно, це не гарантує нам безхмарне майбутнє і цілком можливо, що цього разу буде досягнута межа цієї адаптивності, але те, яких висот досягнула наша цивілізація теж чогось вартує.


0 комментариев
Сортировка:
Добавить комментарий

IT Новости

Смотреть все