ChatGPT incorpora una nueva función para proteger a usuarios en riesgo

OpenAI ha anunciado una actualización clave en su plataforma de inteligencia artificial: los usuarios podrán designar un contacto de confianza que será alertado si ChatGPT detecta señales de autolesión o riesgo para la salud mental del usuario.

Esta medida, implementada tras recibir feedback de la comunidad, busca prevenir situaciones críticas y garantizar una respuesta rápida ante posibles emergencias. La función se activa automáticamente cuando el sistema identifica patrones preocupantes en las interacciones del usuario, como mensajes que sugieran intenciones de hacerse daño.

¿Cómo funciona la nueva herramienta?

Para utilizar esta opción, el usuario debe:

  • Acceder a la configuración de privacidad en su cuenta de ChatGPT.
  • Seleccionar la opción «Contacto de confianza» y añadir los datos de la persona designada (nombre, número de teléfono o correo electrónico).
  • Confirmar la elección, tras lo cual el sistema almacenará la información de forma segura y confidencial.

Una vez configurado, si ChatGPT detecta un riesgo potencial, el contacto recibirá una notificación con recursos de apoyo y recomendaciones para intervenir. La empresa destaca que no se compartirá el contenido de las conversaciones, solo una alerta genérica sobre la situación.

Un paso adelante en la seguridad digital

OpenAI ha subrayado que esta iniciativa forma parte de su compromiso con la responsabilidad en el uso de la IA. En un comunicado, la compañía explicó que la medida responde a casos reales en los que usuarios expresaron ideas de autolesión durante sus interacciones con el chatbot.

«Queremos que ChatGPT sea una herramienta segura y útil para todos», declaró un portavoz de la empresa. «Con esta función, buscamos ofrecer una capa adicional de protección y conectar a las personas con ayuda profesional cuando sea necesario».

Reacciones y críticas

La noticia ha generado opiniones divididas. Algunos usuarios y expertos en salud mental aplauden la iniciativa, considerándola un avance para prevenir crisis. «Es un gesto necesario», comentó una psicóloga especializada en tecnología. «Muchas personas se sienten más cómodas expresando sus emociones a una IA, y esta función puede salvar vidas».

Otros, sin embargo, han expresado preocupaciones sobre la privacidad. «¿Cómo garantiza OpenAI que los datos de los contactos no serán mal utilizados?», cuestionó un usuario en redes sociales. La empresa ha asegurado que cumple con estrictas políticas de protección de datos y que la información solo se usará para este fin específico.

Próximos pasos y expansión

Por ahora, la función está disponible en versión beta para usuarios de ChatGPT en inglés, aunque se espera que se extienda a otros idiomas y regiones en los próximos meses. OpenAI también trabaja en mejoras adicionales, como la integración con líneas de ayuda locales para derivar a los usuarios a recursos especializados.

«Nuestra prioridad es equilibrar la innovación con la seguridad», añadió el portavoz. «Seguiremos escuchando a la comunidad para ajustar esta herramienta y hacerla más efectiva».

Fuente: Engadget