Meta refuerza la seguridad infantil con IA en Facebook e Instagram

La compañía matriz de Facebook e Instagram, Meta, ha anunciado una nueva herramienta basada en inteligencia artificial para detectar y eliminar cuentas de usuarios menores de 13 años en sus plataformas. Según un comunicado publicado el pasado martes, el sistema analiza fotos y vídeos subidos a las redes sociales mediante el reconocimiento de patrones visuales y rasgos generales, como la altura y la estructura ósea.

¿Cómo funciona esta tecnología?

El algoritmo de Meta no realiza reconocimiento facial, como aclara la empresa en su blog oficial. En su lugar, identifica características físicas generales presentes en las imágenes, evitando así la identificación específica de personas. Este enfoque permite detectar contenido que pueda corresponder a menores sin comprometer la privacidad individual.

Además de analizar imágenes y vídeos, el sistema también examina publicaciones, comentarios, biografías y leyendas en busca de pistas contextuales que puedan indicar la presencia de niños en la plataforma. La compañía busca así cumplir con sus políticas de protección infantil y evitar que usuarios menores de 13 años accedan a sus servicios.

Objetivo: proteger a los menores en redes sociales

Meta ha reforzado sus medidas para garantizar que su plataforma no sea utilizada por menores de la edad mínima legal. Esta iniciativa se enmarca en un esfuerzo más amplio por mejorar la seguridad en línea y cumplir con regulaciones como la Ley de Protección de la Privacidad Infantil en Internet (COPPA) en Estados Unidos.

«Queremos ser claros: esto no es reconocimiento facial. No identificamos a la persona específica en la imagen», declaró Meta en su comunicado oficial.

Críticas y desafíos pendientes

Aunque la compañía destaca los beneficios de esta tecnología, algunos expertos en privacidad y protección de datos han mostrado escepticismo. Argumentan que el análisis de imágenes, incluso sin reconocimiento facial, podría plantear riesgos en términos de protección de datos personales y posibles usos indebidos de la información.

Meta ha asegurado que la implementación de esta herramienta se realiza con estrictos protocolos de seguridad y en colaboración con autoridades reguladoras. Sin embargo, la eficacia real del sistema en la detección de menores y su impacto en la experiencia de usuario siguen siendo aspectos que generan debate.

¿Qué sigue para Meta y sus plataformas?

La compañía no ha detallado cuándo entrará en vigor esta medida ni cómo se integrará con otras herramientas de moderación existentes. No obstante, se espera que en los próximos meses se publiquen más detalles sobre su funcionamiento y los resultados obtenidos durante las pruebas iniciales.

Mientras tanto, los usuarios pueden seguir reportando cuentas sospechosas a través de los canales oficiales de Facebook e Instagram, contribuyendo así a mantener un entorno más seguro para todos.

Fuente: The Verge