Posted 2 июля, 17:00

Published 2 июля, 17:00

Modified 2 июля, 17:00

Updated 2 июля, 17:00

Сергей Карелов: ИИ надо сделать всего один шаг, чтобы превзойти человека

Сергей Карелов: ИИ надо сделать всего один шаг, чтобы превзойти человека

2 июля 2024, 17:00
Фото: Image by freepik
Найден альтернативный способ достижения сверхчеловеческих способностей ИИ уже в 2024 году.

Совместное исследование Гарвардского, Принстонского и Калифорнийского университетов с DeepMind и Apple открыло новый феномен — трансцендентность LLM, когда генеративная модель достигает возможностей, превосходящих способности экспертов, генерирующих данные для ее обучения.

Открытие этого феномена — новый фазовый переход в раскрытии возможностей достижения ИИ превосходства над людьми.

Предыдущим фазовым переходом был прорыв к сверхчеловеческому уровню игры в шахматы, продемонстрированный AlphaGo Zero компании DeepMind в 2017 году. Ключом к тому успеху был отказ от использования для обучения ИИ наборов данных, полученных от экспертов-людей. Играя в шахматы (а потом и в Го) сама с собой, AlphaGo Zero достигла сверхчеловеческого уровня игры, недоступного даже для чемпионов мира среди людей.

Однако такой способ преодоления человеческих интеллектуальных способностей применим лишь к строго регламентированным задачам. При отсутствии строгих регламентов (правила, условия игры, начальные условия, внешние факторы и т. д.) для обучения модели необходимы наборы данных, описывающих, как эту задачу решали люди.

Но тут засада. Ведь если модель опять (как до AlphaGo Zero) будет учиться у людей, как она сможет превзойти уровень тех, на чьих данных ее учили? Это как если бы юных шахматистов учили не на партиях мастеров и гроссмейстеров, а на партиях их ровесников из другой шахматной школы. Открытие феномена трансцендентности снимает это ограничение, позволяя модели, обучаясь на партиях, например, перворазрядников, достигать собственного уровня игры на уровне гроссмейстеров.

Этого удается добиться за счет использования определенной техники выбора данных, называемой «низкотемпературная выборка».

Вот поясняющая метафора. Представьте себе, что вы учитесь играть в шахматы, наблюдая за множеством игроков. Обычно вы бы запоминали ходы, которые чаще всего приводят к победе, и пытались их повторить. Это похоже на стандартный способ обучения модели. Но что, если вы начнете выбирать не просто популярные, а очень точные и редкие ходы, которые гораздо эффективнее в определенных ситуациях? Вы станете играть намного лучше, чем те, у кого вы учились.

Низкотемпературная выборка — это как раз такой способ: он помогает модели фокусироваться на самых эффективных и точных решениях, даже если они редко встречаются в обучающих данных. Таким образом, «низкотемпературная выборка» помогает модели выделять и использовать самые лучшие ходы и в итоге превосходить своих учителей.

Принципиальное отличие второго фазового перехода от первого в том, что феномен трансцендентности должен позволять модели превосходить уровень учителей (отраженный в обучающих наборах данных) не только в строго регламентированных задачах, но и (пока теоретически) в любых.

Следовательно, уже в этом году могут появиться модели со сверхчеловеческими способностями в самом широком спектре применений.

Однако говорить о близком наступлении эры абсолютного превосходства ИИ над людьми феномен трансцендентности не позволяет. Дело в том, что трансцендентность достигается лишь за счет эффекта снижения шума (устранения ошибок, допущенных людьми). Это значит, что модель неспособна за счет новых абстрактных рассуждений производить новые решения, которые не может придумать человеческий эксперт… А человек может!

Но это остается последним (хотя и решающим) превосходством людей над ИИ.

Сергей Карелов, IT-эксперт, автор Telegram-канала «Малоизвестное интересное»