Почему ИИ-чатботы обучаются на ваших данных

Каждый раз, когда вы взаимодействуете с ИИ-чатботом, велика вероятность, что введённые вами запросы и ответы используются не только для генерации текущих ответов, но и для обучения модели. Почти все разработчики чатботов применяют полученную информацию для улучшения своих больших языковых моделей (LLM).

Обучение модели происходит за счёт поглощения огромных объёмов данных из открытых источников: социальных сетей, энциклопедий, видеоплатформ и даже без разрешения у авторов, музыкантов и художников. Однако источником данных становятся и сами пользователи — их запросы и ответы также попадают в обучающие наборы.

Риски, связанные с обучением ИИ на вашей информации

Эксперты настоятельно рекомендуют не допускать использование личных данных для обучения ИИ, особенно если вы делитесь:

  • медицинскими или психологическими проблемами;
  • финансовой информацией;
  • личными отношениями;
  • корпоративными секретами.

Даже если компании обещают анонимизировать данные, нет гарантии, что в будущем злоумышленники не смогут связать запросы с конкретным пользователем. Кроме того, передача конфиденциальной информации через чатбот может создать юридические риски для вашего работодателя, если речь идёт о клиентских данных или коммерческой тайне.

Как запретить чатботам использовать ваши данные для обучения

Чтобы защитить личную информацию, выполните следующие шаги:

1. Проверьте настройки конфиденциальности

Многие платформы, такие как ChatGPT, Bing AI и Google Bard, позволяют отключить обучение на пользовательских данных. Например, в ChatGPT:

  • Перейдите в Настройки → Конфиденциальность.
  • Найдите опцию «Использовать мои данные для обучения» и отключите её.

2. Используйте сторонние инструменты

Существуют расширения и сервисы, которые помогают скрыть данные от ИИ-систем. Например, «No More Secrets» или «AI Guard» автоматически удаляют конфиденциальную информацию из запросов.

3. Обратите внимание на корпоративные политики

Если вы используете ИИ-инструменты на работе, уточните у IT-отдела, разрешено ли это и какие данные можно передавать. Некоторые компании запрещают использование публичных чатботов для обработки внутренней информации.

4. Альтернативные решения

Для работы с конфиденциальными данными рассмотрите возможность использования закрытых корпоративных ИИ-систем или локальных моделей, которые не передают данные на внешние серверы.

Вывод: защита данных — ваша ответственность

ИИ-чатботы становятся всё умнее, но их развитие не должно угрожать вашей безопасности. Отключив обучение на личных данных, вы сохраните конфиденциальность и избежите потенциальных рисков. Проверьте настройки уже сегодня и следуйте рекомендациям по безопасному использованию ИИ.

Источник: Fast Company