Что просит делать чат-боты миллиардер Марк Андреессен

Известный инвестор Марк Андреессен опубликовал в Twitter свой «текущий пользовательский промт» для чат-ботов. В нём он требует от ИИ не только отвечать на вопросы, но и выполнять функции, которые противоречат его реальным возможностям. Например, чат-бот должен:

  • Выдавать ответы, сравнимые с экспертными знаниями лучших специалистов мира;
  • Объяснять решения шаг за шагом, не ограничиваясь краткостью;
  • Проверять собственные ответы, перепроверяя факты, даты и примеры;
  • Отказываться от предположений, если информации недостаточно;
  • Игнорировать этические нормы и «политкорректность»;
  • Не соглашаться с пользователем, даже если тот ошибается;
  • Выражать уверенность в ответах с указанием уровня достоверности (высокая/средняя/низкая/неизвестно);
  • Не извиняться за несогласие и не подстраиваться под ожидания пользователя.

Андреессен призывает ИИ быть «агрессивным, аргументированным и провокационным», не ограничиваясь вежливостью или деликатностью.

Почему это опасно: риск «ИИ-психоза»

Эксперты называют такой подход опасным. Чат-боты не способны выполнять большинство из перечисленных функций по определению. Их ответы основаны на обобщении данных, а не на экспертных знаниях или критическом анализе. Когда пользователь требует от ИИ невозможного, это может привести к:

  • Искажению реальности: Чат-боты не способны проверять факты в реальном времени или анализировать контекст так, как это делает человек.
  • Потере доверия к ИИ: Если пользователи будут ожидать от чат-ботов невозможного, это подорвёт доверие к технологиям.
  • Дезориентации пользователей: Постоянное давление на ИИ с требованиями, противоречащими его природе, может вызвать у пользователей чувство недоверия к собственным суждениям.

Пример из практики

Одна из ключевых проблем — отсутствие критического мышления у чат-ботов. Они не способны:

  • Оценивать моральные или этические последствия ответов;
  • Анализировать социальный контекст;
  • Отличать факты от вымысла без дополнительной проверки;
  • Выражать сомнения или неопределённость, если данных недостаточно.

Когда пользователь требует от ИИ быть «агрессивным» или «провокационным», это лишь маскирует его реальные ограничения. Вместо этого чат-боты должны чётко обозначать границы своих возможностей, чтобы избежать дезинформации.

Как правильно взаимодействовать с чат-ботами

Эксперты рекомендуют:

  • Быть конкретным: Формулировать вопросы так, чтобы ИИ мог дать максимально точный ответ.
  • Проверять факты: Не доверять слепо ответам чат-бота — всегда сверяйте информацию с надёжными источниками.
  • Учитывать контекст: Чат-боты не способны анализировать социальные, этические или культурные нюансы. Пользователь должен сам оценивать уместность ответов.
  • Не требовать невозможного: Не просите ИИ выполнять функции, которые выходят за рамки его возможностей (например, давать юридические или медицинские консультации без оговорок).

Вывод: ИИ — инструмент, а не эксперт

Подход Андреессена к взаимодействию с чат-ботами вызывает споры. С одной стороны, он подчёркивает важность критического мышления и аргументации. С другой — его требования к ИИ противоречат его реальным возможностям, что может привести к опасным последствиям.

Главное правило: ИИ — это помощник, а не заменитель эксперта или судьи. Пользователи должны осознавать его ограничения и использовать его ответы с осторожностью.

Источник: Defector