Нейросеть ChatGPT на основе искусственного интеллекта, и другие подобные модели и чат-боты могут нести в себе вполне соответствующую оружием. Если человеку не удастся полноценно контролировать их деятельность, то они и сами в будущем смогут создать более совершенную модель искусственного интеллекта. Такое мнение озвучил писатель и историк Юваль Ной Харари в своей статье для издания The Economist.
Специалист напомнил, что ИИ и нейросети способны самостоятельно развиваться без человеческого контроля за этим процессом. «Если ядерная бомба сама по себе не способна изобрести более мощное и более разрушительное оружие, то искусственный интеллект потенциально может разработать более мощную свою копию без соответствующих ограничений», — предупреждает Харари. В то же время писать отмечает, что современные разработки в области ИИ обязательно должны использоваться исключительно для благих целей, например, для поиска лекарства от онкологии или решения глобальных экологических проблем.
В то же время автор предполагает, что в будущем нейросети начнут активно использовать для создания фейковых новостей или политического контента, что также может представлять определенную опасность с точки зрения стабильного и мирного существования мирового сообщества.