Попытка поджога и арест
В ночь на пятницу в Сан-Франциско была предпринята попытка поджога дома генерального директора OpenAI Сэма Альтмана. По данным полиции, 32-летний Даниэль Морено-Гама, проживавший в отеле неподалеку, был задержан с поличным возле штаб-квартиры компании в районе Миссии. Ему предъявлены обвинения в поджоге, покушении на убийство и ношении оружия.
При обыске в номере отеля и в вещах подозреваемого полиция обнаружила коктейль Молотова, 9-мм пистолет и ноутбук. В карманах Морено-Гамы нашли трёхстраничный манифест, в котором он предупреждал об «уничтожающей угрозе» искусственного интеллекта для человечества.
Угрозы в адрес Сэма Альтмана и других топ-менеджеров
В документе, адресованном Альтману, содержались призывы к покаянию и предупреждение о том, что его жизнь является единственным барьером между «нормальным будущим» и постапокалиптическим сценарием в духе фильма «Терминатор».
Помимо Альтмана, в манифесте были перечислены имена и адреса других руководителей и инвесторов технологических компаний. По данным издания San Francisco Standard, подозреваемый состоял в Discord-сообществе международной организации PauseAI, выступающей за временный мораторий на обучение самых мощных систем общего искусственного интеллекта.
Реакция PauseAI и новые аресты
Представитель PauseAI заявил изданию, что организация категорически осуждает любые проявления насилия, включая нападение на Альтмана и его близких. «Мы верим, что безопасность должна быть приоритетом для каждого, — подчеркнул он. — Насилие противоречит всем нашим принципам».
Через несколько дней после инцидента с Морено-Гамой полиция задержала ещё двух человек по подозрению в стрельбе возле дома Альтмана. Им предъявлены обвинения в неосторожном обращении с оружием, однако мотивы нападения пока не установлены.
Контекст: дебаты вокруг ИИ
Инцидент произошёл на фоне растущих опасений по поводу стремительного развития искусственного интеллекта. Эксперты и общественные деятели призывают к ужесточению регулирования и временному приостановлению разработки наиболее мощных моделей ИИ, способных представлять угрозу для человечества.