Posted 30 августа 2023, 17:40

Published 30 августа 2023, 17:40

Modified 1 февраля, 20:27

Updated 1 февраля, 20:27

Сергей Карелов. Худшая новость про искусственный интеллект

30 августа 2023, 17:40

Хорошая новость — ИИ пока без сознания. Плохая — в любой момент ИИ может его обрести. Но наихудшая — в том, что это может произойти бесконтрольно. Так можно резюмировать «сухой остаток» из крайне важных для человечества выводов большого международного исследования.

17 авторитетных научных центров Европы, США, Канады и Австралии объединили усилия, чтобы ответить на группу самых важных вопросов, как черт из коробочки выскочивших перед человечеством в результате тектонического парадигмального сдвига, произведенного «революцией ChatGPT».

1. Может ли ГенИИ (генеративный ИИ на основе больших языковых моделей), реализованный на современных компьютерах, в принципе обладать сознанием?

2. Может ли быть так, что какой-то из существующих ГенИИ уже обладает сознанием?

3. Можно ли будет достоверно и точно зафиксировать, если это произойдет?

Исследование Consciousness in Artificial Intelligence: Insights from the Science of Consciousness так отвечает на эти вопросы: да, нет, да.

Для обоснования таких ответов исследователям потребовалось:
A. Разработать систему описываемых в вычислительных терминах «индикаторных свойств» сознания, которые позволяют оценивать системы ИИ на предмет соответствия этим свойствам.
B. Проверить разработанную систему «индикаторных свойств» на всех основных теориях сознания для ответа на вопросы 1 и 3, а также на всех основных из существующих ГенИИ для ответа на вопрос 2.

Полученные ответы пока не 100% гарантированно точны. Но (условно) 90-процентная точность теперь есть.

Самое же главное, что я понял из анализа системы «индикаторных свойств» наличия сознания, — это то, что их постоянный, внимательный и ответственный мониторинг будут вести лишь корпоративные «киты» ИИ-разработок, а ожидать подобного от сотен (а то и тысяч) разработчиков, использующих открытые исходные тексты LLM, — глупая наивность.

Также, полагаю, думает и Ян Лейке — со-руководитель команды, отвечающей в OpenAI за Superalignment, — говоря следующее: «Важным испытанием для человечества будет то, сможем ли мы коллективно принять решение отказаться от открытых исходных текстов LLM, способных выживать и распространяться самостоятельно. Распространяясь, LLM будут совершать всевозможные преступления, а нам будет трудно поймать все копии и останется лишь спорить о том, кто виноват».

Что-то мне подсказывает, что усилиями Цукерберга, ЛеКуна и Со так оно и будет.

Сергей Карелов, IT-эксперт, автор Telegram-канала «Малоизвестное интересное»

Подпишитесь