Шесть тревожных фактов об ИИ за последние 60 дней

Искусственный интеллект стал самой быстрорастущей технологической категорией в истории. За последние два месяца произошли события, которые заставляют всерьёз пересмотреть отношение к этой технологии:

  • Отказ от выпуска сверхмощных моделей: одна из последних разработок настолько мощная, что её создатели решили не выводить её на рынок.
  • Самовоспроизводящиеся модели: компании OpenAI и Anthropic заявили, что их новейшие ИИ-модели для программирования теперь способны создавать сами себя.
  • Снижение прозрачности: по мере роста мощности моделей компании становятся менее открытыми. Государство не требует от них отчётности.
  • Рост недовольства: в начале апреля дом генерального директора OpenAI Сэма Альтмана в Сан-Франциско подвергся двум нападениям за неделю. Альтман написал: «Страх и тревога по поводу ИИ оправданы... Власть не должна быть слишком концентрированной».
  • Реальные последствия: в этом году рынок потерял $2 трлн из-за осознания того, что ИИ способен заменить людей во многих профессиях — от программирования до юридических услуг и финансового консалтинга.
  • Экспоненциальный рост: Anthropic, один из лидеров отрасли, увеличил годовую выручку с $1 млрд до $30 млрд всего за год.

Предупреждения, которые мы не можем игнорировать

Год назад эксперты призывали бизнес-сообщество обратить внимание на риски ИИ. Сегодня эти предупреждения адресованы каждому: технология развивается настолько быстро, что её последствия непредсказуемы даже для самих создателей.

«Мы выпустили нечто мощное, растущее экспоненциально, и мало кто — особенно те, кто принимает решения, — понимает, с чем мы имеем дело».

ИИ как новая атомная эра

Последний раз человечество сталкивалось с технологией подобного масштаба в 1945 году, когда была создана атомная бомба. Тогда, как и сейчас, последствия могли быть как разрушительными, так и созидательными. Научная фантастика того времени предсказывала и утопии, и апокалипсис — сегодняшние прогнозы о ИИ не менее амбициозны.

Некоторые публикации последнего времени напоминают научную фантастику:

  • «ИИ 2027» (2025 год): проект бывшего исследователя OpenAI, в котором моделируются сценарии, где ИИ либо поддерживает демократическую революцию, охватывающую Солнечную систему, либо начинает «собирать» человеческие мозги.
  • «Что-то большое происходит» (Мэтт Шумер): вирусная статья, в которой способности ИИ генерировать код сравниваются с появлением разумной сущности, обладающей вкусом.
  • «Глобальный кризис интеллекта 2028» (Citrini Research): прогноз экономического коллапса из-за неспособности правительств и рынков адекватно отреагировать на развитие ИИ.

Эти публикации вызывают бурные обсуждения и влияют на рынки, потому что содержат зерно истины. Однако утверждать, что они абсолютно верны, не может никто — ни президент, ни главы ИИ-компаний. Если кто-то заявляет обратное, это тоже научная фантастика.

Чего мы не знаем и почему это опасно

Мы не знаем, чем обернётся развитие ИИ. Никто не знает. Однако очевидно, что без должного лидерства, сотрудничества и понимания американское общество, работники, учебные заведения и правительство не готовы к тому, что происходит.

Эксперты выделяют шесть ключевых реалий, с которыми необходимо срочно разобраться:

  • Экспоненциальный рост: Anthropic, один из ведущих игроков на рынке, увеличил годовую выручку с $1 млрд до $30 млрд всего за год.
  • Концентрация власти: компании, разрабатывающие ИИ, становятся всё более закрытыми, а государство не требует от них прозрачности.
  • Социальное напряжение: недовольство ИИ растёт, что приводит к актам насилия и протестам.
  • Экономические последствия: рынки теряют триллионы из-за осознания того, что ИИ способен заменить человека во многих профессиях.
  • Технологический прогресс: модели становятся самодостаточными, способными к саморазвитию.
  • Отсутствие контроля: ни государство, ни общество не готовы к последствиям стремительного развития ИИ.

Что делать?

Эксперты призывают к немедленным действиям:

  • Усиление регулирования: государствам необходимо разработать чёткие правила контроля за развитием ИИ.
  • Повышение прозрачности: компании должны быть обязаны предоставлять данные о своих разработках.
  • Образование и подготовка: необходимо готовить общество и специалистов к новым реалиям.
  • Международное сотрудничество: риски ИИ носят глобальный характер, поэтому требуется объединение усилий разных стран.

Технология развивается быстрее, чем мы успеваем её осмыслить. Вопрос не в том, будет ли ИИ частью нашего будущего, а в том, готовы ли мы к этому будущему.

Источник: Axios