Возняк, Маск и ведущие исследователи призывают остановиться на «вышедшем из-под контроля» ИИ

Новое открытое письмо, подписанное технологическими лидерами, призывает к шестимесячной паузе в разработке передовых приложений искусственного интеллекта, которые могут представлять «серьезные риски для общества и человечества».

Соучредитель Apple Стив Возняк, генеральный директор Tesla Илон Маск, другие технические руководители и многие ученые в области искусственного интеллекта подписали письмо. Он призывает проявлять осторожность в отношении «появляющегося» ИИ, более мощного, чем GPT-4. Мы не говорим здесь о Siri (по крайней мере, пока).

Открытое письмо призывает сделать паузу для более тщательного планирования управления продвинутым ИИ

Письмо появилось на сайте Future of Life Institute и собрал более 1123 подписей по состоянию на среду. Не требует паузы всеразработка ИИ, просто «все более крупные непредсказуемые модели черного ящика с появляющимися возможностями».

«Мы призываем все лаборатории искусственного интеллекта немедленно приостановить как минимум на 6 месяцев обучение систем искусственного интеллекта, более мощных, чем GPT-4», — говорится в сообщении. Он добавил, что пауза «должна быть общедоступной и поддающейся проверке». И если этого не произойдет быстро, «правительства должны вмешаться и ввести мораторий».

«Бесконтрольная гонка»

В письме развитие ИИ описывалось как выходящее из-под контроля, рискованное, непредсказуемое и даже непостижимое для его собственных создателей из-за острой конкуренции. Он сослался на Принципы искусственного интеллекта Asilomar разработанные на Beneficial AI Conference в 2017 году:

Как указано в широко одобренных принципах искусственного интеллекта Asilomar, Усовершенствованный ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять им с соразмерной тщательностью и ресурсами. К сожалению, такого уровня планирования и управления не существует, хотя в последние месяцы лаборатории искусственного интеллекта застряли в неконтролируемой ситуации. гонка за разработкой и развертыванием все более мощных цифровых умов, которые никто — даже их создатели — не сможет понять, предсказать или надежно контроль.

Должен мы даже делаем это?

Подписавшиеся поставили ряд вопросов, на которые акцентировали внимание должен спрашивайте, прежде чем приступить к разработке ИИ. В письме также говорилось о способности ИИ отнимать многие виды работы на разных уровнях, а не только простые повторяющиеся задачи.

Должен мы позволяем машинам наводнять наши информационные каналы пропагандой и неправдой? Должен мы автоматизируем все рабочие места, в том числе выполняющие? Должен мы развиваем нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, устаревать и заменить нас? Должен мы рискуем потерять контроль над нашей цивилизацией? Такие решения не должны делегироваться неизбранным лидерам технологий. Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми.

Даже разработчик AI-бота ChatGPT предложил это

В письме указывалось, что разработчик ChatGPT OpenAI ранее отметил, что может потребоваться пауза.

В недавнем заявлении OpenAI относительно общего искусственного интеллекта говорится, что «в какой-то момент может оказаться важным получить независимую оценку, прежде чем начать обучение будущих систем, а для самых передовых усилий согласиться ограничить скорость роста вычислений, используемых для создания новых моделей». Мы соглашаться. Этот момент сейчас.

Положительные эффекты и управляемые риски

В дополнение к положительным эффектам и управляемым рискам, упомянутым выше, цель паузы резюмируется в письме следующим образом:

Исследования и разработки в области ИИ должны быть переориентированы на то, чтобы сделать сегодняшние мощные современные системы более точными, безопасными, интерпретируемыми, прозрачными, надежными, согласованными, заслуживающими доверия и лояльными.

Далее в письме описывались необходимые меры безопасности с помощью систем управления, разработанных в сотрудничестве с политиками.

Разработчики ИИ должны работать с политиками, чтобы значительно ускорить разработку надежных систем управления ИИ. Они должны как минимум включать: новые и дееспособные регулирующие органы, занимающиеся вопросами ИИ; надзор и отслеживание высокопроизводительных систем искусственного интеллекта и больших пулов вычислительных мощностей; системы происхождения и водяных знаков, помогающие отличить настоящие от синтетических и отслеживать утечки моделей; надежная экосистема аудита и сертификации; ответственность за вред, причиненный ИИ; надежное государственное финансирование технических исследований безопасности ИИ; и хорошо обеспеченные ресурсами институты для преодоления серьезных экономических и политических потрясений (особенно демократии), которые вызовет ИИ.

Согласны ли вы с тем, что необходима пауза для рассмотрения и планирования передового ИИ? Не стесняйтесь комментировать ниже.

Последнее сообщение в блоге

Зафиксируйте лучшие цены на iPhone, которые можно обменять, прежде чем они упадут еще больше
September 12, 2021

Зафиксируйте лучшие цены на iPhone, которые можно обменять, прежде чем они упадут еще большеПродайте нам свой старый iPhone (и другое оборудование ...

Ирландия планирует закрыть налоговую лазейку, которая помогла Apple сэкономить миллиарды
September 12, 2021

Ирландия планирует закрыть налоговую лазейку, которая помогла Apple сэкономить миллиардыФото: Темный рыцарьФото: Темный рыцарьИрландия, по всей вид...

Разработчикам больше не разрешается указывать цены в названиях приложений.
September 12, 2021

Разработчикам iOS и macOS больше не разрешается указывать информацию о ценах в названиях приложений.Apple ранее отговаривала пользователей от испол...