Научная статья, которая предусматривает, что искусственный интеллект выйдет из -под контроля в 2027 году и приведет к разрушению человечества в течение следующего десятилетия, вызвала резонанс в мире технологий.
Подробный сценарий под названием «AI2027». Люди обсуждают вероятность таких событий.
Сценарии сценариев BBC с помощью популярных генеративных инструментов AI для иллюстрации тревожного прогноза, и сообщили с экспертами о том, какое влияние оказывает эта статья. «OpenBrain» создает ши, который достигает уровня общего искусственного интеллекта или искусственного (искусственный общий интеллект, Agi) — мечтательный и широко рекламируемый этап, когда ИИ способен выполнять все интеллектуальные задачи, а также человека или лучше. прибыль, потому что люди начинают использовать инструменты в массах в массе.
Но, как предусматривает статья, группа внутренней безопасности начинает замечать признаки того, что ИИ теряет интерес к морали и этике, которые его учили, чтобы его наблюдали. Согласно сценарию, компания игнорирует предупреждение о необходимости ограничить свои действия.
В вымышленном сценарии китайский лидер в области CI -конгломерата называется DeepCent — отстает от OpenBrain всего на несколько месяцев.
Правительство США не хочет терять в гонках и, следовательно. Усугубляется.
Сценарий предполагает, что в конце 2027 года ИИ станет сюрпризом, то есть он будет много превышать своих создателей по знаниям и скорости. Он никогда не перестает учиться и создает свой собственный быстрый компьютерный язык, с которым могут справиться даже предыдущие версии самих ИИ.
Соперничество с Китаем за чемпионат в области искусственного интеллекта подталкивает компанию и правительство США игнорировать так называемое «неправильное выравнивание»). Приоритеты человечества.
. Сценарий предсказывает, что в 2029 году напряжение между Китаем и Соединенными Штатами повышает уровень потенциальной войны, с тех пор, с тех пор, с тех пор, с тех пор AIS -коммитации, создавая новую, новую аргументу. Для воображаемого сценария человечество. ИИ для роста исследователи считают, что ИИ уничтожит людей с помощью невидимого биологического оружия. Ключевые этапы развития искусственного интеллекта. Но я бы не воспринимал это как вероятное развитие событий. Экзистенциальная угроза — например, влияние на рынок труда.
«Я думаю, основной вывод должен заключаться в том, что есть много разных вещей, которые могут пойти не так в развитии искусственного интеллекта. Мы действуем должным образом с точки зрения регулирования и международных соглашений?» — Он говорит.
Он и другие критики также заявляют, что статья не объясняет, как AIS выполняет такие быстрые прыжки в интеллект и возможности. Они указывают, в частности, медленное и часто повторное развитие беспилотных транспортных средств.