¿Qué significa destruir un algoritmo?
- Marcelo García Almaguer

- 23 jul
- 3 Min. de lectura
Actualizado: 2 ago

Liderar con ética en la economía digital no es fácil. Surge un caso que marcó un precedente clave en la gobernanza de la inteligencia artificial: el de WW International, antes conocido como Weight Watchers. ¿Se acuerdan?
A través de su App Kurbo by WW, la empresa recopiló datos sensibles de menores de 13 años —como nombres, correos electrónicos, hábitos alimenticios, ejercicio y peso corporal— sin obtener el consentimiento verificable de sus padres. Esto representó una violación directa a la Children’s Online Privacy Protection Act (COPPA), la ley estadounidense que protege la privacidad infantil en línea. COPPA exige transparencia, consentimiento parental y mecanismos efectivos de control antes de recolectar cualquier dato personal de menores.
Hoy las dietas, ya no se llaman dietas. Especialistas señalan que ahora se disfrazan bajo nombres mas comerciales como “wellness". "Ahora se presentan como sistemas de bienestar o planes de estilo de vida”, advirtió Anna Lutz, MPH, RD, dietista pediátrica en Raleigh, Carolina del Norte, especializada en trastornos alimentarios y alimentación familiar. “Pero cuando se le pide a un niño que use una aplicación como Kurbo, recibe el mensaje de que su cuerpo está defectuoso y que necesita seguir reglas externas para restringirlo y cambiarlo con el fin de ser aceptado. Esta presión puede ser explícita o implícita.”
WW no cumplió con COPPA. En respuesta, la Federal Trade Commission (FTC) impuso una multa de 1.5 millones de dólares y, más allá de lo económico, ordenó algo inédito: la destrucción del algoritmo entrenado con los datos obtenidos de forma ilegal.
Sí, escuchaste bien. La FTC no solo exigió eliminar los datos, sino también los modelos de inteligencia artificial construidos a partir de ellos. Esta decisión marca un hito, ya que el conocimiento derivado del abuso también se considera una forma de abuso.
Desde la lógica jurídica y técnica, la orden tiene profundas implicaciones: obliga a las empresas a eliminar no solo la materia prima, el cual se refiere a los datos obtenidos y están alojados en una base de datos, sino también el producto derivado, es decir, el algoritmo. Esta medida, denominada rendición de cuentas algorítmicas, impide que la información ilegalmente recolectada se “lave” mediante procesamiento técnico de dudosa calidad.
El principio de rendición de cuentas algorítmica adoptado por la FTC, estipula: “No deben permanecer en uso conocimientos, predicciones ni capacidades sistémicas derivados de datos obtenidos de manera ilícita.” Lo anterior, obliga a las compañías a asumir responsabilidad no solo por las prácticas de recolección, sino también por las consecuencias posteriores de utilizar datos sin ética ni legalidad.

¿Pero cómo se destruye un algoritmo? La pregunta es válida y aún sin respuestas claras. La periodista experta en datos Kate Kaye señala, “No sabemos realmente cómo las empresas cumplen con estas órdenes. Lo que sí sabemos es que deben presentar informes de cumplimiento, pero el proceso técnico es extremadamente complejo. Los datos suelen replicarse, duplicarse o distribuirse, y los algoritmos pueden estar entrelazados en múltiples sistemas. La destrucción completa es difícil de verificar y validar.”
Este vacío revela uno de los retos centrales en la gobernanza digital: la falta de mecanismos confiables para auditar y verificar la destrucción efectiva de modelos algorítmicos.
La actual comisionada de la FTC, Rebecca Slaughter, abordó este caso en un artículo para el Yale Journal of Law & Technology (2023), donde enfatizó, “Este enfoque innovador en la aplicación de la ley debe enviar un mensaje claro a las empresas que recolectan datos ilícitamente para entrenar modelos de inteligencia artificial: no vale la pena.”
Con esta afirmación, la FTC no solo busca disuadir a las empresas, sino también marcar un estándar ético: el desarrollo de inteligencia artificial debe estar anclado en principios democráticos y legales, no en la explotación opaca de datos.

Desde una perspectiva ética, el caso WW es paradigmático. Recolectar datos de menores sin consentimiento no solo vulnera leyes: mina la confianza social, expone a los usuarios más vulnerables, y deslegitima las tecnologías emergentes. Ante esto, las empresas tecnológicas deben adoptar principios estructurales como: consentimiento informado, privacidad desde el diseño, auditorías independientes, supervisiones aleatorias y rendición de cuentas algorítmicas continuas.
El caso WW International no es solo una sanción aislada: es una advertencia regulatoria y ética para toda la industria. En la era de la gobernanza digital la IA, la legalidad de los datos y la transparencia en los procesos no son opcionales. Son condiciones fundamentales para desarrollar tecnologías que realmente sirvan al interés público. Como resultado, hay que innovar con responsabilidad.




Gracias por compartir, la Academia de Política Digital es un referente en la ética digital