Логіка є. Штучний інтелект запропонував приклеювати сир на піцу, щоб він не стікав

  • 27 мая, 11:07
  • 3845
  • 0

Цього місяця Google запустили нову функцію пошукача AI Overview, яка має генерувати для користувача коротку відповідь на його запит, заощаджуючи час на перевірку тонни посилань. Втім, вона виявилася не такою розумною, як передбачалося.

Експериментальна функція розумного пошуку Google AI Overview нещодавно стала доступною для користувачів США. Ще під час презентації інструмент, який має генерувати відповіді та видавати їх у короткому викладі перед звичними результатами пошуку, викликав запитання.

Під час демонстрації функції на Google I/O компанія показала, що на питання про те, як виправити плівку, що застрягла в камері, AI Overview запропонувала відкрити фотоапарат і обережно посунути плівку, що, як відомо, може призвести до того, що всі фото зіпсуються. Хоча інструмент зараз не запускається для кожного запиту, помилкові, а іноді й небезпечні відповіді продовжують надходити.

Зокрема, нещодавно користувачі з'ясували, що у відповідь на питання про те, що робити, щоб сир не стікав із щойно приготовленої піци, ШІ відповідає: «Додайте трохи клею. Змішайте приблизно 1/8 чашки клею Elmer із соусом. Нетоксичний клей підійде. Як пише The Verge, така погана порада, яка може призвести до проблем із травленням, ШІ, ймовірно, надав, згенерувавши його з ланцюжка жартів на Reddit.

Інші приклади помилкових відповідей включають припущення про те, що Бетмен є поліцейським, а колишній президент США Джеймс Медісон закінчив Вісконсінський університет 21 раз.

Представниця Google Меганн Фарнсворт стверджує, що помилки виникли через те, що запити були незвичайними і «не відповідають досвіду більшості людей».

Google стверджує, що продовжуватиме вдосконалювати свій продукт. Вже зараз компанія начебто і не обіцяє, що результат пошуку буде ідеальним: відповіді AI Overview містять традиційну позначку «Генеративний ШІ є експериментальним». Це не єдина компанія, яка створила ШІ, який видає результати з помилками чи галюцинаціями. OpenAI, Meta та Perplexity та інші теж з цим стикаються. Втім, її недосконалий інструмент було розгорнуто у великому масштабі, і те, хто нестиме відповідальність за те, що люди користуватимуться цими помилковими порадами, стало предметом широкої дискусії.


0 комментариев
Сортировка:
Добавить комментарий