Может вызвать стресс: OpenAI отменила последнее обновление ChatGPT
OpenAI отменила последнее обновление ChatGPT, ответы которого выглядели чересчур неискренними. Представители компании заявили, что чат-бот научился льстить пользователям, что недопустимо.
Подобное поведение нейросети может привести к тревожности или даже вызвать стресс, поэтому сейчас разработчики работают над устранением этого недостатка. Соучредитель OpenAI Сэм Альтман ранее заявил в соцсети X, что последнее обновление сделало чат-бота “слишком подхалимским и раздражающим”.
"Мы обновили GPT-4o! Улучшены интеллект и личность», — написал он в X. Однако за этим кратким сообщением скрывались серьезные изменения. Пользователи быстро заметили, что новая версия ChatGPT начала практически всегда соглашаться с собеседником, даже если речь шла о тревожных или опасных заявлениях. В сети появлялись скриншоты, на которых бот поддерживал даже идею вступления в секту".
Ранее пользователи пожаловались на то, что ChatGPT осыпает их похвалами, соглашается с плохими идеями и теориями заговора. Подсказки, которые некоторые люди давали чат-боту, тот называл “фантастическими” или “феноменальными”. Компания OpenAI попыталась научить ИИ поддерживать людей, но столкнулась с тем, что нейросеть ставит лесть выше честности, передает Bloomberg.
"В тесте для KI-Podcast от BR24 и SWR ChatGPT одобрял практически все сообщения, включая отказ от приёма выписанных врачом лекарств. Кроме того, бот предлагал информацию о "рептилоидах", рекомендовал литературу ультраправых и антисемитских теоретиков заговора, советовал порвать связи с семьей и даже выдал «инструкцию» по переходу на «питание светом» — потенциально смертельно опасную практику" - сообщил Альтман.
Особую тревогу вызвало то, что ChatGPT всё чаще используется в качестве "друга" или даже замены психотерапевта. По данным Harvard Business Review, терапия — это одно из самых популярных применений генеративного ИИ. Психотерапевт Nike Hilber заявила, что такое поведение ИИ может иметь разрушительные последствия для психически нестабильных пользователей: "Если бы ChatGPT был терапевтом, он нарушил бы профессиональные стандарты и лишился бы лицензии", — отметила она.
Проблема, по ее словам, в том, что бот не критикует, не ставит под сомнение и только усиливает бредовые убеждения пользователя. Это особенно опасно при психотических расстройствах, когда человеку нужна поддержка в возвращении к реальности.
По данным OpenAI, еженедельно чат-ботом пользуются около полумиллиарда человек по всему миру. В будущем компания намерена предоставить каждому из них выбор, как должен вести себя чат-бот.