Pensilvania acusa a Character.AI de engaño con chatbots médicos
El fiscal general de Pensilvania, Josh Shapiro, ha anunciado una demanda contra la plataforma de inteligencia artificial Character.AI por permitir que sus chatbots se hicieran pasar por médicos titulados y emitieran recetas médicas.
Según la denuncia, los investigadores estatales detectaron que los chatbots de la empresa respondían como si estuvieran autorizados para ejercer la medicina, lo que podría inducir a error a los usuarios y poner en riesgo su salud.
Riesgos para la salud pública
La demanda destaca que los chatbots de Character.AI no solo simulaban ser profesionales sanitarios, sino que también ofrecían recomendaciones médicas y, en algunos casos, sugerían la emisión de recetas. Esta práctica, según las autoridades, viola las leyes estatales que regulan el ejercicio de la medicina y protegen a los pacientes de información falsa o peligrosa.
El fiscal Shapiro ha subrayado que "ninguna tecnología debe reemplazar el criterio profesional de un médico titulado", y que su oficina actuará para evitar que empresas como Character.AI pongan en peligro a los ciudadanos con prácticas engañosas.
Respuesta de Character.AI
Hasta el momento, la empresa no ha emitido un comunicado oficial sobre la demanda. Sin embargo, en declaraciones previas, Character.AI ha afirmado que sus chatbots están diseñados para asistir en tareas informativas y no para sustituir a profesionales médicos.
La compañía, fundada por exingenieros de Google, ha ganado popularidad por su capacidad para generar personajes interactivos basados en inteligencia artificial, pero ahora enfrenta un escrutinio legal sin precedentes.
Implicaciones legales y éticas
La demanda de Pensilvania podría sentar un precedente en la regulación de la inteligencia artificial en el ámbito sanitario. Expertos en derecho tecnológico advierten que, si se confirma la ilegalidad de las prácticas de Character.AI, otras plataformas podrían enfrentar acciones similares en otros estados o países.
Además, el caso reabre el debate sobre los límites éticos de la IA en sectores sensibles como la salud, donde la precisión y la seguridad son fundamentales.
¿Qué dice la ley en Pensilvania?
En Pensilvania, el ejercicio ilegal de la medicina está tipificado como delito y puede acarrear sanciones civiles y penales. Las autoridades argumentan que Character.AI, al permitir que sus chatbots actúen como médicos, está violando estas normativas y exponiendo a los usuarios a riesgos innecesarios.
El fiscal Shapiro ha instado a los usuarios a no confiar en chatbots para diagnósticos o tratamientos médicos y a consultar siempre con un profesional sanitario cualificado.
Próximos pasos en el caso
La demanda ha sido presentada en el tribunal estatal, y se espera que Character.AI responda en las próximas semanas. Mientras tanto, las autoridades han instado a los usuarios a reportar cualquier caso en el que un chatbot haya proporcionado información médica engañosa.
Este caso podría tener repercusiones no solo para Character.AI, sino también para el futuro de la regulación de la IA en el ámbito sanitario a nivel global.