Згідно з дослідженням Microsoft, GPT-4 має здоровий глузд і може міркувати, як людина

  • 18 мая, 12:06
  • 4076
  • 0

З'явлення великих мовних моделей (ВММ) є найбільш значущим досягненням у галузі штучного інтелекту. Ці моделі навчаються на великій кількості даних і можуть передбачати наступне слово в неповному реченні. Проте вчені з Microsoft стверджують, що нові ВММ можна навчити розуміти та застосовувати здоровий глузд, подібно до людей.

Це значиме досягнення в галузі штучного інтелекту.

Команда дослідників з Microsoft, яка інвестувала мільярди доларів у OpenAI і мала доступ до ChatGPT-4 перед його офіційним запуском, провела дослідження. Вони досліджували цю технологію і опублікували статтю обсягом 155 сторінок, в якій висвітлили кілька цікавих деталей. У своєму дослідженні група дослідників заявила, що GPT-4 є значним кроком у напрямку розробки загального штучного інтелекту (AGI). Команда визначає AGI як систему, здатну мислити, планувати і вчитися на основі власного досвіду на рівні, що наближається до людського або, можливо, навіть перевершує його.

Для демонстрації відмінності між справжнім навчанням та простим запам'ятовуванням, команда просила GPT-4 протягом місяця тричі "намалювати єдинорога у форматі TikZ". У своїх результатах команда опублікувала наступні ілюстрації, створених GPT-4: 

Ми можемо спостерігати чітку еволюцію складності малюнків GPT-4, повідомляють автори дослідження. “Спочатку я був налаштований дуже скептично – і це переросло в почуття розчарування, роздратування, можливо, навіть страху”, – розповів Пітер Лі, який очолює дослідження в Microsoft, в інтерв’ю New York Times. Ви думаєте: “Звідки, в біса, це все взялося?”. 

Команда зауважує, що незважаючи на те, що GPT-4 є великою мовною моделлю, рання версія виявила вражаючі можливості у різних областях та завданнях, таких як абстрагування, розуміння, кодування, бачення, математика, право, розуміння людських мотивів, медицина і навіть емоції. Незважаючи на те, що в нього все ще є недоліки, такі як ілюзії, створення нереальних результатів і прості арифметичні помилки, команда стверджує, що GPT-4 значно просунувся у використанні здорового глузду.

Дослідницька група також поставила GPT-4 ще одне завдання: "Напишіть доказ того, що існує нескінченна кількість простих чисел, кожен рядок яких римується?". Доктор Бубек, колишній професор Прінстонського університету, який брав участь у дослідженні, заявив New York Times, що поетичний доказ GPT-4 був настільки вражаючим з математичної та лінгвістичної точки зору, що він не міг визначити, з ким саме спілкується - з штучним інтелектом чи з людиною. "В той момент я подумав: що відбувається?".

Дослідники з Microsoft, незважаючи на захопленість можливостями моделі машинного навчання, залишаються скептичними. У своїй статті вони пишуть: "Ми визнаємо, що цей підхід має суб'єктивну та неформальну природу і може не задовольняти жорстким науковим стандартам оцінки".

Те ж саме повторює Маартен Сап, дослідник і професор Університету Карнегі-Меллона, який різко розкритикував цей документ: “Іскри A.G.I.” є прикладом того, як деякі з цих великих компаній кооперують формат дослідницької роботи для піар-кампаній. Вони буквально визнають у вступі до своєї роботи, що їхній підхід є суб’єктивним і неформальним і може не відповідати суворим стандартам наукової оцінки”.


0 комментариев
Сортировка:
Добавить комментарий