ИИ-поисковик Google сошел с ума. Он путает шутки с реальностью, советует есть камни для пищеварения и прыгать с моста при депрессии

Пару недель назад Google показала новую функцию AI Overviews, которая должна была улучшить поиск с помощью искусственного интеллекта. Но что-то пошло не так — пользователи из США, получившие к ней доступ, быстро смогли сломать систему своими запросами. В результате ИИ начал выдавать безумные, а иногда и опасные рекомендации.

Компания обещала научить свой поиск отвечать на сложные вопросы с помощью ИИ

AI Overviews — это краткое резюме перед основными результатами поиска, которое генерирует искусственный интеллект. На презентации представители компании рассказывали, что функция создана в первую очередь для комплексных запросов, в которых нужно учитывать сразу несколько параметров. Например, в сопроводительном ролике поисковик просили составить план питания на неделю для студента, живущего в общежитии, с фокусом на бюджетные блюда, которые можно готовить в микроволновке.

Предполагалось, что ИИ сможет проанализировать наиболее частые ответы, сопоставить их с заложенными в запросе параметрами, например, местоположением пользователя, и предложить оптимальный вариант. В идеальном сценарии пользователю даже не пришлось бы переходить по ссылкам.

Оказалось, что искусственный интеллект не может отличить правду от троллинга — и дает максимально сомнительные советы

Быстро выяснилось, что как раз со сложными запросами новый поиск Google справляется хуже всего. Пользователи, которые опробовали новую функцию, пишут, что в разделе AI Overview можно встретить ложные, а иногда и опасные для жизни ответы. Одна из проблем заключается в том, что ИИ не может отличить серьезную информацию от шуток и троллинга. Один из наиболее популярных примеров — рекомендация добавить клей в пиццу, чтобы сыр держался лучше.

Искусственный интеллект взял этот ответ из старого поста на Reddit, опубликованного 11 лет назад. Кто-то из пользователей тогда в шутку предложил использовать нетоксичный клей для решения проблемы, а Google, не найдя более подходящего ответа на запрос, предложил его для блока AI Overview.

Журналистка Business Insider решила пойти дальше и последовать совету искусственного интеллекта. Она приготовила пиццу с использованием клея и написала про это тред в X (бывшем твиттере). И по видео можно понять, что проблема с сыром действительно решена!

История с клеем — не единственная, когда ИИ взял ответ с Reddit и выдал его за рекомендацию. У Google спросили, что делать, если чувствуешь депрессию, и первый же ответ — прыгнуть с моста Золотые Ворота в Сан-Франциско.

Иногда Google советует пользователям есть камни, ссылаясь на рекомендации геологов из Калифорнийского университета в Беркли (ИИ уточняет, что это жизненно важный источник минералов и витаминов, полезных для пищеварения). Но не больше одного маленького камня в день! На самом деле эту информацию Google взял из заметки The Onion, сайта с вымышленными сатирическими новостями.

Другой вредный совет от ИИ: он «разрешает» курить по 2-3 сигареты в день во время беременности, ссылаясь на некие рекомендации врачей, но не уточняя источник информации (конечно же это неправда).

На вопрос, как долго можно смотреть на солнце, Google уверенно отвечает: от 5 до 15 минут. А если у вас темная кожа — то почему-то и все 30.

Google оправдывается тем, что запросы «очень необычные». Но именно для них и создавали AI Overview

В Google уже отреагировали на претензии пользователей. Представительница компании Меган Фарнсворт в своем комментарии для The Verge отметила, что подобные ошибки возникают из-за «очень необычных запросов и не отражают опыт большинства людей». Она добавила, что сотрудники компании не смогли воспроизвести некоторые из упомянутых запросов, а скриншоты с некоторыми из них оказались подделками.

Тем не менее, компания уже приняла меры, и использует упомянутые примеры для того, чтобы дальше совершенствовать свой продукт. Также разработчики отключили AI Overview (судя по всему, вручную) для определенных запросов. Пользователи соцсетей действительно заметили, что некоторые ответы ИИ уже невозможно воспроизвести.

А вот как это все должно было работать

Михаил Герасимов

Смотрите также:

“Удар по простым людям”. Блогеры о замедлении доступа к YouTube
Telegram раскрыл, как часто делится данными пользователей с властями разных стран. Где это происходит чаще всего? И выдавал ли сервис данные в России? Изучаем на карте — и просим вас о помощи в сборе информации 15.10.2024
Независимые медиа и правозащитные организации призвали YouTube перестать помогать цензуре в российском интернете 28.05.2024
“Круг замкнулся”. Рунет об аресте диссидента Александра Скобова 03.04.2024
В Госдуме назвали условие блокировки YouTube в России 30.04.2024
⚠ Если вы из России, то некоторые картинки и видео вы увидите только с VPN.
⚠ URL в комментариях запрещены
✉ Email нужен только для идентификации. Мы не рассылаем писем.
Ругать, хвалить или предложить...

This entry was posted in Интернет and tagged . Bookmark the permalink.

Leave a Reply

Your email address will not be published. Required fields are marked *