Нажмите "Enter" для перехода к содержанию

Новая модель OpenAI — это не то, что вы думаете.

Проект ”Клубничка», его дым и зеркала.

Я думал, что хайп вокруг ИИ идет на спад. Однако несколько дней назад выяснилось, что я ошибся, когда мои новостные ленты и социальные сети заполнились статьями о новой модели искусственного интеллекта от OpenAI, известной под кодовым названием “Клубника” или o1. По словам OpenAI, эта модель не просто выдает явно ошибочные, автоматические ответы на ваши запросы, как ее предшественник ChatGPT-4o; вместо этого она может “думать” или “рассуждать” перед тем, как ответить. OpenAI утверждает, что это делает “Клубнику” гораздо более точной, чем любая другая языковая модель ИИ. На самом деле они утверждают, что модель значительно улучшила свои показатели в математике, науке и программировании и даже может набрать 83% на квалификационном экзамене для Международной олимпиады по математике, по сравнению с 13% для ChatGPT-4o. Конечно, это представляет собой значительный шаг вперед в технологии ИИ? В конце концов, машина может думать, рассуждать и выдавать более точные ответы, чем большинство других систем ИИ. Ну, к сожалению, нет. “Клубника” ближе по сути к фокусам и маркетинговым уловкам, чем к реальной революционной технологии.

“Клубника” или o1 (оба названия по сути глупые) не появилась благодаря каким-то новым революционным алгоритмам или совершенно новому подходу к ИИ, который позволил бы системе развить повышенные когнитивные способности. Вместо этого она просто автоматизирует относительно успешную существующую технику запросов, известную как “проверка шагов рассуждения”, на основе метода обучения ИИ, который существует еще дольше.

Проверка шагов рассуждения — это когда вы просите языковую модель (LLM) объяснить шаг за шагом, что она делает. Почему это полезно? Это помогает вам, как пользователю, понять, что делает ИИ, позволяя вам выявлять, где он ошибается, и давая возможность создавать лучшие запросы, обращая внимание на эти проблемы. Это также означает, что у ИИ есть возможность исправить себя. Он вычисляет каждый шаг в цепочке, основываясь на вашем запросе и предыдущем шаге. Таким образом, если этот шаг имеет неверный факт или ошибку в логике, ИИ получает еще один шанс все исправить. Исследования показывают, что эта техника запросов помогает моделям ИИ стать немного более точными.

Все, что делает “Клубника”, — это автоматизирует эту технику запросов. Она использует ИИ, чтобы разбить ваш запрос на простые шаги. Затем она передает эту информацию главному ИИ и заставляет его обрабатывать каждый отдельный шаг, подражая неавтоматизированным запросам “проверки шагов рассуждения”. OpenAI утверждает, что это похоже на “мыслительный” процесс ИИ или применение логики, но это просто маркетинговый трюк. ИИ все еще не понимает интеллектуально, что происходит — он просто использует статистику. Основной ИИ “Клубники” делает точно то же самое, что и каждая другая модель на рынке; единственное, что делает его более точным — это то, что у него немного более тонкий интерфейс, чем у других ИИ.

Тем не менее, чтобы быть справедливым, это не совсем правда. “Клубника” не просто блестящий интерфейс, наклеенный на предыдущую флагманскую систему ИИ OpenAI, ChatGPT-4o. Вместо этого ИИ, который поддерживает “Клубнику”, был обучен иначе, и это помогло ему решать более сложные задачи. Но есть один нюанс.

ChatGPT-4o был запрограммирован, чтобы подражать шаблонам из его тренировочных данных (которые OpenAI украл из газет, книг и социальных сетей). На самом деле, большинство LLM обучается именно так, поскольку это лучший способ подражать тексту, схожему с человеческим. Однако для “Клубники” OpenAI использовал другой метод обучения, известный как обучение с подкреплением, который учит систему через награды и наказания. Вы, вероятно, видели этот метод обучения раньше в анимациях систем ИИ, обучающихся ходить на протяжении тысяч последовательных поколений. В теории это должно было сделать ИИ лучше в решении текстовых задач по сравнению с ChatGPT-4o.

Но только в теории. Часто с ИИ, когда его способность решать одну задачу увеличивается, его способность решать другие задачи снижается. Более того, обучение ИИ таким образом может подорвать его способность понимать текст, его способность имитировать человеческую речь или значительно повлиять на его “соответствие”. “Соответствие” просто означает, что ИИ пытается решить проблему, которую пользователь просит его решить, именно так, как он хочет. Например, люди использовали обучение с подкреплением, чтобы заставить системы ИИ играть в видеоигры, но искусственный интеллект в конечном итоге начинает эксплуатировать лазейки, такие как ошибки и хакерские уязвимости, чтобы победить, а не играть по правилам. Между тем, ИИ, обученные так же, как ChatGPT-4o, как правило, имеют лучшее соответствие, так как они пытаются решать задачи аналогично своим тренировочным данным, которые были сгенерированы нами, людьми. Таким образом, “Клубника” несомненно будет страдать от этой проблемы соответствия, принимая короткие пути для ответов на вопросы и приводя к ошибкам.

На самом деле, OpenAI признает, что у “Клубники” есть эти проблемы. В их описании ИИ говорится, что “Клубника” лучше справляется с ответами на вопросы по науке, программированию и математике, чем ChatGPT-4o, но по многим другим запросам ChatGPT-4o оказывается лучше.

Вы можете подумать, что это означает, что OpenAI может объединить две модели, чтобы получить лучшее из обоих миров, но поскольку они обучаются совершенно разными способами, это практически невозможно.

В комнате также есть гигантский слон-убийца. Хотя Strawberry — это не тот гигантский скачок вперед, в который вас хотел бы убедить вводящий в заблуждение маркетинг OpenAI, он также не решает гигантских проблем, с которыми сталкивается OpenAI. Модели OpenAI, такие как ChatGPT-4o, уже достаточно высокого качества, чтобы ими могли пользоваться миллионы людей, поэтому вместо того, чтобы становиться более производительными, этим моделям просто необходимо стать более эффективными! OpenAI испытывает финансовые затруднения и к концу года будет нести ежегодные убытки в размере 5 миллиардов долларов из-за затрат на обучение и поддержание своих моделей искусственного интеллекта. Таким образом, “Strawberry” — это огромная ошибка, сделанная в совершенно неверном направлении. Вместо того, чтобы на самом деле решать свои проблемы, Openal, похоже, сосредоточена на использовании вводящего в заблуждение маркетинга и салонных уловок, чтобы привлечь больше инвестиций для поддержания своей пустой рекламы.

Ваш комментарий будет первым

Добавить комментарий