La muerte de Zackery Nazario, un adolescente de 15 años de Manhattan, ha encendido las alarmas sobre el impacto de los algoritmos de redes sociales en la conducta de menores. Según información de Reuters, el joven falleció en febrero de 2023 mientras practicaba “surfing” en el metro, una peligrosa tendencia que prolifera en plataformas como TikTok e Instagram. Su madre, Norma Nazario, afirma que su hijo fue expuesto de forma constante a videos de este tipo, al punto de volverse adicto al contenido.
Ahora, Pail Goetz, un juez del estado de Nueva York, ha determinado que tanto Meta como ByteDance —propietaria de TikTok— pueden enfrentar una demanda por muerte por negligencia. Esta decisión marca un hito legal: por primera vez, se abre la posibilidad de responsabilizar penalmente a estas plataformas por inducir conductas riesgosas a través de sus algoritmos. La demanda a TikTok y Meta podría sentar un precedente de gran impacto para la industria tecnológica.
¿Puede el algoritmo incitar conductas de riesgo?
El fallo del juez Paul Goetz se basa en una idea central: las plataformas no son meros canales neutros. Según el juez, existen elementos suficientes para suponer que Meta y ByteDance “incitaron” a Zackery a realizar la actividad que le costó la vida, al hacerlo adicto al contenido sobre retos extremos. Esto va más allá del simple alojamiento de videos: implica una forma activa de recomendación personalizada a menores.
Norma Nazario descubrió tras la muerte de su hijo que sus redes sociales estaban llenas de videos sobre “subway surfing”, una peligrosa moda urbana. Aunque las compañías alegan protección bajo la Sección 230 de la Ley de Decencia en las Comunicaciones y la libertad de expresión de la Primera Enmienda, el juez determinó que el caso merece avanzar. Según él, es plausible que las plataformas identificaran a Zackery como usuario vulnerable.

Esta visión plantea un desafío ético y legal de gran calado: si una empresa tecnológica puede identificar usuarios por edad, ¿debe asumir responsabilidad cuando les muestra contenido dañino? El caso de Zackery abre la puerta para que otras familias afectadas por fenómenos similares puedan buscar justicia, y no solo compensaciones económicas.
La demanda a TikTok y Meta cuestiona la neutralidad de las plataformas
El argumento de Norma Nazario no es nuevo, pero sí está cobrando fuerza en los tribunales: que las plataformas diseñan intencionalmente algoritmos para maximizar la permanencia de los usuarios, incluso si eso significa promover contenido riesgoso. La demanda a TikTok y Meta plantea que estas compañías conocían el riesgo y, aun así, continuaron permitiendo que los menores accedieran a este tipo de videos.
De hecho, tanto Meta como ByteDance se han enfrentado a miles de demandas similares en EE.UU., donde se les acusa de generar adicción, afectar la salud mental de menores y dañar estructuras sociales. Hasta ahora, muchas de estas demandas han sido desestimadas por los jueces bajo el amparo de la Sección 230. Pero este nuevo fallo insinúa que esa inmunidad legal podría tener límites.
El juez Goetz fue claro: las empresas no pueden escudarse únicamente en su papel como plataformas. “Es plausible que el rol de los acusados en las redes sociales excediera el de una simple asistencia neutral”, escribió en su dictamen. Esto podría cambiar la forma en que se regulan los algoritmos y los criterios con los que se responsabiliza a las tecnológicas en casos de daños a usuarios.

¿Hacia una nueva responsabilidad social tecnológica?
Más allá del ámbito jurídico, este caso interpela directamente la responsabilidad social empresarial del sector tecnológico. ¿Qué obligaciones tienen las plataformas digitales con sus usuarios más jóvenes? ¿Cómo deben prevenir riesgos asociados a los contenidos que promueven? Estas son preguntas urgentes en un entorno donde el contenido viral muchas veces prioriza la espectacularidad por encima de la seguridad.
La demanda a TikTok y Meta subraya la necesidad de que estas compañías adopten políticas más estrictas de moderación, educación digital y protección a menores. A pesar de contar con herramientas como controles parentales o etiquetas de advertencia, la eficacia de estas medidas ha sido ampliamente cuestionada. El foco está en los algoritmos y su capacidad para amplificar conductas peligrosas.
Además, la responsabilidad social no debe limitarse a reaccionar ante tragedias. Las empresas deben invertir en sistemas proactivos de detección de contenido riesgoso, colaborar con instituciones educativas y transparentar cómo se diseñan sus modelos de recomendación. La ética digital debe dejar de ser un accesorio de relaciones públicas para convertirse en el núcleo de sus operaciones.
Más muertes, más presión regulatoria
Zackery no ha sido el único. Según la policía de Nueva York, al menos seis personas han muerto en 2024 por practicar “surfing” en el metro. Esta tendencia, impulsada por retos virales, sigue cobrando vidas mientras las plataformas apenas logran contener su propagación. El caso genera presión adicional sobre los legisladores, quienes ya discuten regulaciones más estrictas para las redes sociales.
Algunos países están explorando leyes que obliguen a las plataformas a verificar la edad de los usuarios, limitar el uso de algoritmos con menores y establecer consecuencias legales por la promoción de contenidos peligrosos. En este contexto, la demanda a TikTok y Meta puede convertirse en un punto de inflexión para acelerar los cambios regulatorios en Estados Unidos y más allá.
Las decisiones judiciales también podrían influir en la percepción pública. Si los tribunales empiezan a reconocer la responsabilidad directa de las tecnológicas en tragedias como la de Zackery, será más difícil para las empresas mantener posturas de neutralidad. El escrutinio social y legal seguirá creciendo, y con ello, la exigencia de un compromiso real con el bienestar de sus audiencias más jóvenes.

¿Es este el caso que marcará un precedente?
La demanda a TikTok y Meta no solo busca justicia para una familia, sino que plantea un debate crucial sobre los límites de la libertad de expresión y la responsabilidad de las plataformas digitales. Si se admite que estas compañías “incitan” indirectamente a conductas peligrosas, el modelo de negocio basado en algoritmos adictivos deberá repensarse.
Este caso puede ser recordado como el que empujó a la industria a tomar medidas más audaces en protección a menores y en la ética de su diseño algorítmico. Mientras tanto, sigue creciendo la presión para que las tecnológicas asuman, no solo sus ganancias, sino también las consecuencias sociales de sus productos.