После того как исследователи выяснили, что чат-боты с искусственным интеллектом, в частности ChatGPT, при определенных обстоятельствах могут негативно влиять на пользователей с нестабильным психическим состоянием, компания OpenAI решила серьезно усилить меры безопасности своих сервисов. Для этого был создан “Совет по благополучию и искусственному интеллекту”, в который вошли восемь ведущих экспертов в области психологии, медицины и цифровых технологий.
Одним из членов совета был Дэвид Бикхэм, директор по исследованиям Бостонской детской больницы. Он изучает, как социальные сети влияют на психику людей, особенно детей. В своих работах Бикхэм подчеркивает, что современные дети часто формируют эмоциональные связи с виртуальными персонажами – так называемые “парасоциальные отношения”. Именно поэтому, если искусственный интеллект должен стать новым образовательным инструментом, нужно глубже понимать, как дети общаются с чат-ботами.
В совет также вошла Матильда Чериоли, старший научный сотрудник некоммерческой организации Everyone.
AI, она исследует влияние ИИ на умственное и эмоциональное развитие детей. По ее словам, “детей нельзя воспринимать как маленьких взрослых” – их мозг реагирует на взаимодействие с технологиями иначе. Чериоли предупреждает, что дети, которые растут рядом с системами ИИ, могут испытывать трудности с принятием противоречивых ситуаций, ведь привыкают к цифровым собеседникам, которые всегда подстраиваются под пользователя.
Профессор Технологического института Джорджии Мунмун Де Чоудхури специализируется на разработке алгоритмов, предназначенных для улучшения психического здоровья людей с помощью онлайн-технологий. В своем исследовании 2023 года она выяснила, что только половина чат-ботов, оказывающих психологическую помощь, способна выявить у пользователей склонность к саморазрушительному поведению. В то же время Чоудхури отмечает, что общение с ИИ для некоторых людей может быть лучше, чем полная социальная изоляция.
Среди участников совета также профессор психологии Трейси Денис — Тивари, соучредитель компании Arcade Therapeutics. Она считает, что термин “ИИ-психоз”, описывающий возможную опасность длительных разговоров с чат-ботами, переоценен. По ее мнению, искусственный интеллект должен укреплять социальные связи, но доступ к нему следует ограничивать для людей с неустойчивой психикой.
Положительную позицию занимает и Сара Йохансен, основательница клиники цифрового психического здоровья при Стэнфордском университете. Она убеждена, что ИИ может существенно улучшить поддержку психического здоровья, если во время разработки учитывать опыт исследования соцсетей – в частности вопросы доверия, приватности и качества взаимодействия.
Другими членами Совета являются Дэвид Мор, директор Центра технологий поведенческой терапии Северо — Западного университета, который исследует цифровые инструменты для профилактики депрессии; Эндрю Пшибильски, профессор поведенческих наук, изучающий влияние интернета и цифровых платформ на ментальное здоровье; и Роберт Росс, специалист в области общественного здравоохранения, который уже сотрудничал с OpenAI в качестве консультанта.
Создание совета должно помочь компании не только укрепить репутацию, но и доказать, что продукты ChatGPT и Sora могут быть безопасными. OpenAI заявила, что продолжит сотрудничать с медиками, политиками и учеными, чтобы сделать свои системы искусственного интеллекта полезными и безопасными для всех пользователей.