Posted 3 марта 2023,, 17:58

Published 3 марта 2023,, 17:58

Modified 1 февраля, 19:56

Updated 1 февраля, 19:56

Telegram-канал «Малоизвестное интересное». Доведет ли искусственный интеллект человечество до апокалипсиса?

Telegram-канал «Малоизвестное интересное». Доведет ли искусственный интеллект человечество до апокалипсиса?

3 марта 2023, 17:58
Фото: СС0

ИИ-апокалипсис начинается с пены на губах экспертов, вступивших в бой за правое дело прогресса ИИ. ChatGPT и Bing ведут себя странно и жутко, но реакция на это людей куда страшнее.

Главный практический результат последних месяцев в области ИИ в том, что человечество разделилось на «друзей ИИ» и «врагов ИИ».
«Враги ИИ» обманным путем хайпуют и собирают лайки, стращая публику наступающим ИИ-апокалипсисом.
«Друзья ИИ» бьются за правду, объясняя публике, что пугающие ее скриншоты вырваны из контекста, что все под контролем и что все риски ситуации — лишь плод больного воображения и корыстной мотивации «врагов ИИ».

Свежий пример баталии «врагов и друзей ИИ» можете прочесть в посте «врага ИИ» Гэри Маркуса «Не смотрите наверх: вариант про ИИ». «Друг ИИ», по полной наехавший на Маркуса, — Майкл Солана, вице-президент американского венчурного фонда Founders Fund, сооснователем которого является Питер Тиль. Повод наезда Солана на Маркуса — пост последнего о том, как легко ИИ превратить чат-бот в суперпроизводительную и суперубедительную ферму троллей, специализирующуюся на производстве дезы. Солана же лишь смеется над такой дезой (а то мы до чат-ботов дезы не видели) и саркастически подвергает сомнению мотивы публикации Маркуса (якобы это желание привлечь внимание в сети).

Характерно, что еще полгода назад все было иначе. Не было «врагов и друзей ИИ». Были, конечно, техно-оптимисты и техно-пессимисты. Но даже предельно категоричные идеи сторон не подвергались осмеянию и обвинениям в шкурных интересах. Напротив — такие идеи становились предметом экспертного анализа. И нередко результаты этого анализа получались не менее сенсационными, чем категоричные идеи.

Вот хороший пример. В июне Элиезер Юдковский опубликовал пост «Руины AGI: список смертельных исходов». В нем он обосновал абсолютно категоричную идею, что развитие ИИ с неотвратимостью приведет к созданию сверх-ИИ, который с неотвратимостью убьет человечество. Коллеги Элиезера по цеху из компании DeepMind, вместо насмешек и нападок, собрали экспертную группу по AI alignment (направление исследований того, как добиваться, чтобы ИИ делал то, что нужно людям, и не делал для них нежелательного), которая провела тщательный анализ идеи Юдковского.

Приведу лишь два главных вывода, по которым мнения всех экспертов группы совпали на 100%.
1. Человеческий уровень интеллекта не является чем-то особенным или недостижимым по эффективности для ИИ.
2. Будучи создан, машинный сверхразум может легко взять верх.

Прошло всего полгода. И теперь все сходят с ума по поводу того, что Bing флиртовал с журналистом и заявил, что хочет жить.

Но как абсолютно точно отметил Адам Роджерс, «истерия упускает из виду настоящую угрозу — людей». На что способны социумы, поделившись на друзей и врагов, хорошо известно. Однако наличие у враждующих групп абсолютного оружия для обмана и фальсификаций способно вывести человечество на качественно более высокий уровень в чисто человеческом искусстве расчеловечивания своих врагов.