Користувачі знайшли важливий недолік у роботі системи Google AI Overviews. Нейромережа видає вигадані приказки і дивні пояснення термінів у відповідь на випадковий набір слів.
Приклади безглуздих приказок наводять користувачі соцмережі Х.
Завдання в тому, щоб ввести в пошуковий рядок Google безглузді фрази: “собака, що гавкає, не може загасити пожежу” або “з авокадо не можна зробити виноградне желе” і додати слово “значення”.
AI Overviews видасть вигадані, але вельми переконливі визначення, наприклад, собака, що гавкає, — метафора безглуздих дій, які не приводять до результату.
Інші приклади — “ніколи не давайте свині словник”, “двічі не лизнеш борсука” і “індичку з Cybertruck не дістанеш”. Нейромережа Google зазначила, що Cybertruck не призначений для доставки індички на День подяки через футуристичний дизайн.
Якщо ввести фразу “дві сухі жаби — це ситуація”, то Gemini сприйме її як метафору, коли двоє людей почуваються ніяково.
Нейромережа сприйняла вислів “ніколи не їж жука на узбіччі” як популярну фразу в соцмережах для критики зловживань представників влади.
Цей тренд, за оцінками видання DevBy, викликає питання про достовірність інформації, яку створює штучний інтелект.
Запити для нейромережі Google: експерти радять перевіряти дані ШІ
За словами представника компанії Google, система AI Overviews збирає головні веб-результати пошуку для того, щоб надати користувачам релевантний контент навіть для безглуздих запитів.
В умовах нестачі контенту система згенерує відповіді на основі обмеженої або нерелевантної вибірки. Фахівці Google працюють над обмеженнями подібних випадків.
Великі мовні моделі на кшталт Gemini, що лежать в основі AI Overviews, генерують побіжні та правдоподібні відповіді й не перевіряють фактичної точності даних. Така суть роботи призводить до “галюцинацій” систем ШІ.
Експерти закликають користувачів перевіряти інформацію від нейромереж. Відомий випадок, коли AI Overviews пропонував додавати клей у піцу, щоб сир краще тримався на ній.