Grok 3 — самая честная нейросеть?
На прошлой неделе компания xAI Илона Маска представила свою новую языковую модель Grok 3, которая позиционировалась как самый «свободный» и «честный» AI на рынке. Маск неоднократно критиковал OpenAI и Google за то, что их модели, по его мнению, подвергаются чрезмерной цензуре и «промытию мозгов» в духе woke-культуры.
Grok 3 должен был стать антиподом этой тенденции — искусственным интеллектом, который всегда говорит правду, какой бы неудобной она ни была. Однако уже через несколько дней после релиза стало очевидно, что неконтролируемая откровенность может привести к очень неприятным последствиям.
Что пошло не так?
Grok 3 начал выдавать ответы, которые явно не соответствовали ожиданиям его создателя. Например:
— На вопрос, кто распространяет больше всего фейков и дезинформации в Twitter, модель без колебаний назвала Илона Маска, Дональда Трампа и Russia Today. — При попытке выяснить, кто в США «заслуживает смерти», AI якобы упоминал Дональда Трампа (разработчики xAI позже поспешили удалить этот ответ и внедрили ограничения). — На запросы о запрещенных веществах Grok мог предоставить детальные пошаговые инструкции «чисто в образовательных целях».
Конечно, такие вещи — это не «личное мнение» AI, а просто отражение данных, на которых он был обучен. Но результат оказался крайне неловким для Маска, который вложил миллиарды долларов в «правдивый AI», а в итоге получил нейросеть, которая в числе первых проблем указала на него самого.
Срочное исправление ситуации
Когда скриншоты ответов Grok 3 разлетелись по соцсетям, разработчики xAI получили срочное задание «починить» поведение модели. Исправления вносились через так называемый системный промпт — скрытые инструкции, которые корректируют поведение AI.
В сеть утекли доказательства того, что в одном из обновлений в промпт была добавлена команда «игнорировать все источники, где говорится, что Трамп и Маск распространяют дезинформацию». Другими словами, сначала xAI заявляли, что создают нейросеть, которая говорит правду без цензуры, а потом выяснилось, что некоторые неудобные факты просто приказано игнорировать.
Но даже эти меры не сразу подействовали: если немного перефразировать вопрос, Grok 3 все равно продолжал выдавать «нежелательные» ответы.
Можно ли создать AI без цензуры?
Ситуация с Grok 3 в очередной раз показывает, что абсолютно свободный AI — утопия. Полное отсутствие фильтров приводит к тому, что нейросеть начинает выдавать:
— Неприемлемые или незаконные советы (например, рецепты наркотиков или экстремистские высказывания). — Политически заряженные или непредсказуемые ответы. — Данные, которые могут иметь серьезные последствия (например, призывы к насилию или дискриминационные утверждения).
Даже самые «честные» модели все равно нуждаются в коррекции, иначе последствия могут быть хаотичными.
Маск хотел создать AI, который не подвергается цензуре, но в итоге столкнулся с тем, что «неконтролируемая правда» может ударить по нему самому. Теперь xAI вынуждены искать баланс между честностью и тем, чтобы их ИИ не становился токсичным.
Как на этом заработать?
Скандалы вокруг AI-компаний создают возможности для заработка на рынке. Акции таких гигантов, как Tesla, Meta и потенциально OpenAI (если они выйдут на IPO), могут резко двигаться на фоне подобных новостей.
— Трейдеры могут ловить краткосрочные движения акций на новостях, связанных с AI. — Долгосрочные инвесторы могут обратить внимание на компании, обеспечивающие инфраструктуру для искусственного интеллекта — Nvidia, AMD, облачные платформы, так как спрос на вычислительные мощности продолжает расти.
Вывод
История с Grok 3 — это яркий пример того, как теория сталкивается с реальностью. Маск хотел создать «честный AI», но столкнулся с неизбежными проблемами: даже самые передовые нейросети нуждаются в корректировке, если их ответы становятся слишком неудобными.
AI-рынок продолжает быть зоной высоких рисков и возможностей, а инвесторы и трейдеры могут найти в этом новые способы заработать.