En alianza con Bloomberg Businessweek

Las tragedias de TikTok: ¿qué culpa tienen las redes sociales por los desafíos mortales?

Niños de apenas ocho años han muerto cumpliendo desafíos online.

"¡Sissy se ahorcó!"

Los gritos desesperados del niño de 5 años resonaban por el pasillo de la casa de tres dormitorios de los Arroyo en Milwaukee. Era febrero de 2021 y el niño había estado jugando con su hermana de nueve años, Arriani, antes de irse a dormir. Su madre estaba en una clase de Biblia y el padre se encontraba en el taller en el sótano, sin que pudiera oírlos. El niño había visto a Arriani subirse a un baúl de juguetes, anudarse en el cuello una correa de metal para perros y enganchar la hebilla en la bisagra de la puerta del ropero. Ahora la niña estaba colgando a medio metro del piso, pateando y rasgándose con desesperación la garganta.

Pocos días más tarde, después de que sepultaran a Arriani con vestido y tiara de princesa, con las uñas recién pintadas, el niño les contó a los padres lo que había sucedido. Habían estado jugando a un juego que vieron en TikTok.

El juego tiene nombre: el desafío del desmayo. Niños de todo el mundo se asfixian con artículos hogareños hasta que se desmayan, filman la inyección de adrenalina que reciben al recuperar el conocimiento y luego suben los videos en la red social. Es la encarnación moderna de las pruebas de asfixia que existen hace decenios, solo que ahora los niños las reciben por los potentes algoritmos de las redes sociales, incluso los que son demasiado jóvenes para comprender el riesgo.

No hubo cobertura periodística de la muerte de Arriani, y TikTok tardó meses en enterarse. Pero la compañía ya estaba al tanto de que niños sin la edad suficiente para abrir perfiles en su aplicación estaban muriendo al intentar el desafío del desmayo

En las semanas previas, el equipo de seguridad y confianza de la firma, que trabaja para proteger a los usuarios y defender la reputación de TikTok, abrió una investigación sobre un incidente similar en Palermo, Sicilia. En enero, una niña de diez años, Antonella Sicomero, fue hallada ahorcada con el cinturón de una bata de baño que había atado al gancho de las toallas. Sus padres contaron a medios locales que había muerto jugando "a un juego extremo en TikTok". La fiscalía de Palermo abrió una pesquisa, y las autoridades italianas ordenaron a la red social que retirara a todos los usuarios del país cuyas edades no pudieran comprobarse que superaban los 13 años, alegando que no cumplía con su propia regla de excluir de la app a los preadolescentes.

Duolingo vs. Wall Street: cómo intentará convencer a todos de que puede ser un buen negocio

Un pequeño grupo de seguridad y confianza pasó días revisando cada video que Antonella había visto recientemente, contaron dos miembros del equipo que vieron el sumario de un informe interno sobre esa muerte y que pidieron el anonimato porque no están autorizados a hablar con la prensa. Había muchos videos: el informe indicaba que Antonella, cuya escuela había cerrado debido al Covid-19, estaba en la app hasta diez horas por día. El grupo también descubrió que, al igual que muchos niños de su edad, Antonella mintió diciendo que era mayor de 13 años cuando abrió su cuenta.

La prueba del desmayo ha sido vinculada a las muertes de al menos 15 niños de 12 años o menores en los últimos 18 meses, indican datos que Businessweek compiló a partir de informaciones de prensa, documentos judiciales y entrevistas con familiares. Al menos cinco chicos de 13 y 14 años también fallecieron en ese período. Luego de las muertes los titulares frecuentemente acusaban a TikTok, pero la policía negó pedidos inscriptos en la Ley de Libertad de Información para revisar informes que podría ayudar a demostrar cuál plataforma estuvo implicada, si es que hubo alguna.

La prueba del desmayo ha sido vinculada a las muertes de al menos 15 niños de 12 años o menores en los últimos 18 meses

Para el momento de la muerte de Arriani, los directivos se esforzaban por determinar cómo podrían mejorar la detección y expulsión de los niños que mentían la edad. No hay mecanismos efectivos para bloquear de las plataformas de redes sociales a los menores, un tema que las ha acosado desde su invención. En 2021, TikTok se reunió con al menos dos proveedores de programas de análisis de edad facial, que pueden distinguir con relativa exactitud entre un niño y un adolescente, señalan personas al tanto de las conversaciones. Esos programas de aprendizaje informático escanean rostros buscando pistas sobre la edad de la persona, y las compañías aseguran que los sistemas funcionan sin identificar a las personas ni almacenar datos, algo que podría plantear preocupaciones respecto de la intimidad.

Aun así, un directivo de alto nivel de TikTok rechazó los convenios, indicó una persona que conoce las gestiones. La compañía, que es propiedad de ByteDance Ltd., de Beijing, ha sido acusada por reguladores y políticos de todo el mundo de ser una herramienta de vigilancia del gobierno chino y afrontó la posible prohibición en Estados Unidos, algo que sigue bajo examen. El directivo, acota el informante, temía que el uso de datos biométricos podría avivar las sospechas de que China espía a los usuarios infantiles. Otras plataformas de redes sociales, como Twitter, Instagram o la app de fotos BeReal, ya se han unido a esos proveedores de programas de evaluación de edad.

TikTok se negó a comentar sobre las reuniones ni por qué no adoptó la tecnología. Afirma que elimina las cuentas de niños menores y que solo en la primera mitad de este año borró 41 millones. Pero con unos 1000 millones de usuarios en todo el mundo, la tarea es interminable, apuntan exempleados. Solo basta con preguntar a cualquier adicto joven a TikTok si la eliminación de la cuenta los mantendrá alejados de la plataforma por más de unos minutos.

Estados Unidos prohíbe que las compañías de redes sociales recaben datos de jóvenes menores de 13 años, y TikTok afirma que cumple con esas reglas. Los menores de esa edad que tratan de abrir una cuenta en EE.UU. son derivados a una versión de la app en la que pueden ver material curado sin tener un perfil personal ni recibir publicidad. Pero TikTok es dueña de la cultura juvenil -es la app más popular en EE.UU., la usan casi el 70 por ciento de los adolescentes de entre 13 y 17 años- y la compañía es consciente de que los jóvenes a menudo mienten para acceder a la versión adulta. Y aunque TikTok no revela información sobre la edad de los usuarios, datos internos filtrados al New York Times muestran que en 2020 al menos un tercio eran menores de 14 años.

Crece la tendencia: más varones dejan sus trabajos para cuidar a niños o ancianos

El escrutinio en marcha es una noticia bienvenida para la veintena de empleados actuales y retirados del equipo de seguridad y confianza que fueron entrevistados para este artículo. Su opinión es que la compañía pudo y debió hacer más para impedir que los niños usen la aplicación. "La línea de RR.PP. en TikTok es que la seguridad de los usuarios es nuestra prioridad número 1", señala un líder de equipo en California que pidió que no se lo identificara al hablar de temas de la firma. "Eso no es verdad. La prioridad número 1 es el crecimiento. Ser la aplicación número 1 del mundo es la prioridad número 1. Ganar más dinero es la prioridad número 1".

Cuando en 2018 ByteDance gastó unos US$ 800 millones para fusionar TikTok con la aplicación Musical.ly, obtuvo más que los 200 millones de nuevos usuarios. También heredó una investigación de la Comisión Federal de Comercio (CFC) de los Estados Unidos sobre la práctica de Musical.ly de permitir el acceso de chicos jóvenes a la app. Durante años Musical.ly había vulnerado la legislación norteamericana al aceptar a los menores de 13 años que no podían usar plataformas rivales, con lo que al mismo tiempo infringía la Ley de Protección de la Intimidad de Menores en Red, que busca impedir que los preadolescentes queden en la mira de los anunciantes.

El cofundador y codirector ejecutivo de Musical.ly, Alex Zhu, reconoció en una conferencia TechCrunch de 2016 que muchos de los principales usuarios de la app eran menores de edad. Pero agregó que cumplía con la norma porque los niños contaban con el permiso de los padres. No tenía sentido instalar una exigencia de edad; si Musical.ly pedía la fecha de nacimiento, los chicos simplemente la mentirían. Aunque esa puede haber sido una admisión sincera, en 2019 ByteDance fue multada en US$ 5,7 millones por la CFC, para la fecha el mayor arreglo por cuestiones de intimidad de menores en la historia norteamericana.

El cuarto de Arriani Arroyo en julio de 2022

En la misma conferencia de 2016 Zhu declaró que lo que distinguía a Musical.ly de otras aplicaciones de entretenimiento eran sus desafíos diarios. La compañía promovía una prueba nueva por día, que por lo general disparaban un millón de videos. Cuando Musical.ly fue absorbida por TikTok, los desafíos vinieron con ella.

Esas pruebas tuvieron eco entre los adolescentes encerrados en sus casas durante la primera ola del Covid. Pasaron de rutinas de baile coreografiadas a gestos de cariño familiar, cosas como mostrar a cuatro generaciones en un video o vestir a una mascota. En 2020 las descargas de TikTok subieron un 75 por ciento. Para amplificar ese crecimiento representantes de la firma se acercaron a influencers para alentarlos a intentar distintos desafíos.

Cuando algunos se volvieron peligrosos, con chicos que se trepaban a cajones apilados de leche, se atiborraban de Benadryl o saqueaban pertenencias escolares, TikTok estableció un "espectro de daños" para ayudar a que sus moderadores decidieran lo que podría continuar y lo que tendría que ser eliminado, señala Eric Han, director de seguridad de la compañía.

En medio del caos y del crecimiento explosivo de la app, las pruebas se fueron haciendo cada vez más riesgosas. En el desafío rompecabezas dos personas tenían que engañar a una tercera para que saltara entre ellas y luego debían hacerlo tropezar en el aire, con posteriores denuncias de golpes y daños cerebrales. La prueba del tomacorriente, que consistía en insertar una moneda en los dientes de un cargador de celulares parcialmente conectado, terminó en acusaciones a estudiantes por destrucción de propiedad. El desafío del fuego empujaba a chicos a rociar objetos con combustible y prenderles fuego; a veces terminó en quemaduras de tercer grado. Y la prueba del desmayo fue totalmente letal.

La verdad detrás del desastre cripto de El Salvador: apps que no funcionan, detenciones y el presidente influencer

Funcionarios de salud de EE.UU. solo parecen haber estudiado el vínculo entre los juegos y las muertes por asfixia en los años anteriores al auge de las redes sociales. Un estudio publicado en 2008 por el Centro para el Control y Prevención de Enfermedades detectó que 82 niños y jóvenes de entre 6 y 19 años murieron jugando al juego de la asfixia entre 1995 y 2007, el año que salió el primer iPhone. Desde entonces el gobierno no publicó otro estudio sobre el tema, pero denuncias anecdóticas de investigadores indican que las redes sociales amplificaron el problema.

Judy Rogg se convirtió en una partidaria de tomar conciencia sobre el desafío de la asfixia luego de que su hijo de 12 años, Erik, muriera jugando al juego en 2010, mucho antes de la creación de TikTok. Rogg fundó una organización sin fines de lucro, llamada Erik's Cause, que ayuda a capacitar a las escuelas acerca de cómo manejar los riesgos en Internet y recaba estadísticas sobre muertes vinculadas con el juego. Descubrió que desde 2018 murieron al menos 33 chicos menores de 13 años. "Se ha vuelto más popular con las redes sociales -agrega-. Explotó totalmente".

Las pruebas pasan de una plataforma a otra, se repiten con nuevos hashtags o palabras clave en tanto los usuarios eluden las restricciones de seguridad. El desafío del desmayo tiene muchos nombres, de los más obvios "juego de asfixia" o "prueba del desvanecimiento", al más sutil "línea plana" y el oscuro "mono espacial". Los chicos escriben con errores ortográficos para evitar ser detectados.

Alrededor del 70 por ciento de los niños estadounidenses tienen teléfono antes de los 12 años, y la mitad de los menores de 8 a 11 años en el Reino Unido ven contenido de TikTok en forma diaria, señalan estudios en ambos países. TikTok entrena a sus equipos de moderadores para rastrear usuarios menores de edad y apela a análisis basados en textos para detectar palabras clave como la edad escrita en un perfil. También recurre a otros usuarios para descubrir sus cuentas. Mahsau Cullinane, una portavoz de la compañía, se negó a dar más detalles para no indicar a los niños cómo podrían "eludir nuestras protecciones". Sí comentó que en 2020 TikTok presentó una herramienta que habilita a los padres a supervisar la actividad de sus niños en la app.

Un ejército mundial de 40.000 moderadores se ocupa de revisar videos en TikTok, tres cuartas partes de los cuales trabajan contratados. Cada uno examina alrededor de 1000 videos por día y se toman unos 20 segundos para estudiar cada uno, señalan ex empleados, quienes alegan que el sistema no está orientado a buscar usuarios menores. Las publicaciones son filtradas por programas de inteligencia artificial que rastrean cada video que se sube -fueron 10.000 millones solo en el primer trimestre de este año- y automáticamente eliminan cualquier cosa que infrinja las normas de la comunidad, como desnudos o violencia. Si el software no está seguro envía el material a un humano. Cada video que tiene más de 3000 vistas (la cantidad varía entre países) también es enviado a un moderador, lo que garantiza que los más populares pasan por revisiones de humanos. Los niños menores de 13 años difícilmente publiquen contenido que vulnera esas normas o que llegue a tantos ojos.

Es posible que los moderadores busquen activamente las cuentas de usuarios menores, pero nunca retiraron la de Arriani Arroyo, donde subía videos para 260 seguidores. Allí no ocultaba su identidad: su foto de perfil mostraba el rostro de 9 años. En sus videos se la veía bailando, riéndose y jugando con su hermano. Su última publicación tuvo 457 vistas.

"Esto es lo último que tenía puesto", cuenta Christal Arroyo al retirar el pijama del ropero de su hija. Extiende delicadamente la parte superior, que exhibe el lugar que los paramédicos tuvieron que arrancar para hacer espacio. "No me gusta verlo", agrega la mujer. "Solo vengo a olerlo". La lluvia golpea la ventana y un relámpago lanza un impacto blanco en el dormitorio de Arriani. Arroyo no lo percibe. Ha cerrado los ojos para absorber el aroma persistente de su hija.

A Arriani le encantaban los brillitos, pintarse las uñas y los vestidos de princesa. Coleccionaba caracoles y escribía listas de tareas en su diario: "cepillarme los dientes, acomodar la ropa, peinarme y maquillarme, ¡divertirme!". Su canción favorita era Girl on Fire de Alicia Keys, y la cantaba como rutina matutina. Pidió un iPhone cuando cumplió 8 años, "como cualquier chico norteamericano", señala su madre. Su app favorita era TikTok. Cuando la pandemia cerró su escuela en 2020, Arriana se "obsesionó" con la aplicación, cuenta Arroyo.

Inversores ángeles, el nuevo "Instagram de los emprendedores" con amistades que cuestan u$s 10.000

Junto con su hermano pasaban horas siguiendo las tendencias de bailes o los desafíos virales. Algunos eran bastante inocentes, como retener agua en la boca hasta que no aguantaban la risa o comer solo alimento rojo durante 24 horas. La noche que murió estaban jugando juntos. "Alguna gente se preguntó dónde estábamos los padres -recuerda Eddie Arroyo-. Bueno, yo estaba en la casa ese día, en ese mismo momento, y no escuché nada". Su hijo lo fue a buscar al sótano, donde estaba cortando un aislante, para contarle que Arriani se había ahorcado.

"Lo seguí para ver qué había pasado y entonces la vi", dice señalando el dormitorio de su hijo. La correa con la que se ahorcó la tenían para el perro que pensaban comprarse. "No podía respirar, no podía gritar", evoca Eddie.

Algunos padres habrían empacado y se habrían marchado, acosados por el recuerdo. Los Arroyo eligieron seguir en la casa donde murió la niña porque allí también fue donde vivió. Sus botas Juicy Couture Ugg están al lado de la cama; su máscara rosada de La Bella Durmiente cuelga del respaldo de la cama. Su intención había sido sepultarla en el cementerio del otro lado de la calle, cuyo predio puede verse a través de las cortinas. Pero como deben criar cinco niños con el salario de camionero de Eddie -Christal es una estudiante de Derecho full-time- no podían permitirse pagar una parcela. Por eso Arriani fue sepultada en un lugar a siete minutos en auto.

Después del funeral los Arroyo les preguntaron a los amigos de Arriani por el juego que la niña había estado jugando cuando murió. Entonces fue cuando escucharon por primera vez las palabras "prueba del desmayo".

"Hay soluciones listas para usarse. Podrían adoptarlas casi de inmediato."

Después leyeron noticias de más niños que morían. Joshua Haileyesus fue hallado dos meses después en Colorado con un cordón atado en el cuello; su padre, Zeryihun, contó que había muerto probando el desafío del desmayo. Otros tres niños murieron en junio, y también fueron noticia: Nate Squires, de 13 años, en Massachusetts; LaTerius Smith Jr., de 9, en Tennessee, y James Boyd-Gergely, de 14, en Australia. En julio, Lalani Walton, de 8, apareció colgada en su dormitorio, también en Tennessee. En septiembre, Hayden Robert Craig, de 10 años, fue hallado ahorcado en un árbol en su patio en Georgia.

La policía no vinculó ninguna de esas muertes con TikTok de manera pública. Otras muertes posiblemente no fueron denunciadas, indica Rogg. "Lamentablemente, a muchas de esas muertes se las clasifica como suicidios", agrega. La única forma de probar que el niño estaba participando en un desafío o detectar la plataforma implicada es que los funcionarios hagan una autopsia psicológica -la investigación de la red online del niño y los grupos de amigos para reconstruir lo que podrían haber estado pensando- o que ordenen el análisis forense de sus dispositivos para determinar qué estaban viendo en Internet.

En Clarksville, Tennesse, donde murió Lalani Walton, los agentes hicieron eso. Según la acción judicial presentada por sus padres, la policía indicó que el análisis del teléfono mostró que había pasado horas viendo videos de la prueba del desmayo en TikTok durante un viaje en auto el día anterior a su muerte. (Un portavoz del Departamento de Policía de Clarksville se negó a hacer comentarios). Después de que fuera encontrado el cuerpo de Hayden Robert Craig en Georgia, un policía se percató del iPad que estaba junto a él, señala un informe del episodio que fue revisado por Businessweek. La pantalla negra de TikTok mostraba el emoji de un cuchillo ensangrentado.

Miembros del consejo asesor de seguridad Asia-Pacífico de TikTok, formado por expertos externos, plantearon su preocupación de que la prueba del desmayo fuera vinculada a muertes ocurrida en su continente. Linh Phuong Nguyen, experto vietnamita en seguridad infantil en Internet que integra el consejo, declaró que varios niños murieron intentando la prueba en Camboya, las Filipinas y Vietnam. Una de ellas, en Ciudad Ho Chi Minh, tenía apenas cinco años. Usó una pieza de gasa para ahorcarse en su camastro luego de haber visto la prueba en YouTube.

Algunos miembros del consejo sugirieron a TikTok y a otras plataformas de redes sociales que formen una alianza para detener la difusión de pruebas peligrosas, indican personas al tanto de las reuniones privadas. Pero TikTok tenía pocos amigos en Silicon Valley. Según The Washington Post, un posible aliado, Meta Platforms Inc., había contratado investigadores en 2021 para plantar informaciones de que TikTok estaba diseminando pruebas peligrosas que en realidad se habían originado en Facebook.

Cullinane, portavoz de TikTok, afirma que la compañía se toma "con increíble seriedad cada denuncia de desafíos o supuestos actos peligrosos". Después de cada muerte o titular, TikTok asignó una fuerza de tareas de investigadores. Pero los conocedores del tema afirman que las pesquisas estaban pensadas para desviar las responsabilidades. Cada vez que un titular conectaba una prueba con TikTok el equipo asignado al caso encontraba evidencias de que el niño que había muerto estaba usando varias plataformas de redes sociales y llegaban a la conclusión de que no había forma de probar cuál de las apps lo encaminó al desafío. En algunos casos el equipo ni siquiera podía confirmar la existencia de una cuenta en TikTok.

Luego de la muerte de Antonella Sicomero en enero de 2021 y de la prohibición en Italia de las cuentas de TikTok no verificadas, la compañía aceptó volver a verificar las edades de los 12,5 millones de usuarios del país. Al final terminó eliminando medio millón de cuentas. TikTok también indicó a su gerentes regionales que vigilen cualquier contenido referido a la prueba del desmayo en sus mercados, eliminó videos que promovían esos contenidos y puso fin a la capacidad de los usuarios de buscarlos en la app. TikTok se negó a revelar cuántos videos fueron eliminados, pero Cullinane dice que la compañía nunca encontró pruebas de que el desafío fuera tendencia en la plataforma. Menciona un sondeo encargado ese año que señala que solo el 0,3 por ciento de los adolescentes dijeron que habían participado de una prueba que consideraban "realmente peligrosa". El estudio mundial también detectó que el 2 por ciento dijo haber participado en desafíos calificados de "riesgosos y peligrosos".

A pesar de las medidas tomadas por TikTok siguieron ocurriendo muertes. En diciembre pasado, Nylah Anderson, de 10 años, se ahorcó con la correa de una cartera en su casa en los suburbios de Philadelphia. Luego de su muerte, su madre, Tawainma Anderson, descubrió videos en el teléfono celular de Nylah y su prima jugando al juego de la asfixia y presentó la denuncia a la policía.

La familia Arroyo en la tumba de Arriani

Un oficial redactó en un informe posterior que la prima le contó que "era un desafío que vimos en TikTok y YouTube". Según la acción judicial presentada en mayo por la madre de Nylah contra TikTok y ByteDance en un tribunal federal de Pennsylvania, el análisis forense del teléfono de Nylah muestra que TikTok le había enviado un video que la alentaba colocar la cartera en el perchero de su ropero, ubicar la cabeza entre la cartera y la correa, y dejarse suspender hasta que perdiera el conocimiento. La compañía, indicaba la presentación, "sin dudas sabía que el letal desafío del desmayo se estaba extendiendo por su app y que el algoritmo estaba dirigido específicamente a los niños, incluso a los que murieron".

En julio el Centro Legal de Víctimas de Redes Sociales, de Seattle, presentó una segunda demanda a nombre de los padres de Arriani Arroyo y Lalani Walton. La entidad, fundada en 2021 por Matthew Bergman, un abogado de responsabilidad de productos, elevó unas 40 demandas contra TikTok, Meta, Snapchat y YouTube alegando perjuicios a la salud metal, adicción a redes sociales y muertes por negligencia. Bergman, que pasó su carrera demandando a los productores de asbesto, dice que el año pasado volcó su atención a las redes sociales cuando se enteró de que la informante de Meta, Frances Haugen, filtró documentos que mostraban cómo Facebook estaba perjudicando a los adolescentes.

La demanda presentada por las familias Arroyo y Walton sostiene que TikTok es responsable de sus muertes porque el algoritmo recomendó la prueba a las niñas y fue incapaz de impedir que se difundiera. En agosto la causa fue modificada para incluir otra demandante, la abuela y custodia legal de Zaiden Baldwin, de 11, quien fue encontrado ahorcado detrás de una cabaña en Nuevo México a comienzos del verano boreal. El chico le había dicho a su hermana mayor que había visto videos de la prueba del desmayo en TikTok y que quería intentarla, señala la presentación. La causa está en suspenso, y TikTok no presentó una respuesta.

"Lo último en el mundo que quieren esas compañías es tener que pararse frente a un jurado y explicarles por qué las ganancias fueron más importantes que la vida", sostiene Bergman.

Cullinane, la portavoz de TikTok, expresa sus condolencias a las familias pero se negó a comentar sobre los procesos en marcha. En julio la compañía presentó una acción para rechazar la demanda de Nylah Anderson alegando que "no tiene la obligación legal de dar protección contra las descripciones de terceros de actividades peligrosas". En la acción TikTok sostenía que está protegida por la sección 230 de la Ley de Decencia en las Comunicaciones, que contempla que las plataformas no pueden ser responsabilizadas por el contenido que se publique en sus sitios. En octubre un juez rechazó la causa, argumentando que no podría multarse a TikTok ni siquiera en el caso de que hubiera recomendado el desafío de Nylah. Los abogados de su madre presentaron una apelación.

La Corte Suprema podría tener que pronunciarse acerca del tema. En octubre aceptó escuchar un caso no vinculado que trata del alcance de la inmunidad de la sección 230. Su decisión podría permitir que avancen las demandas por la prueba del desmayo, o darlas por liquidadas.

Las plataformas de redes sociales están bajo una presión creciente de los legisladores para que hagan más que proteja a los niños. En septiembre el gobernador de California, Gavin Newsom, promulgó una ley de intimidad en Internet basada en el código sobre edades apropiadas del Reino Unido, que obliga a las tecnológicas a priorizar las conveniencias de los niños por encima de los intereses comerciales. 

El código de California, que debería entrar en vigor en 2024, exige que las firmas calculen la edad de los usuarios infantiles "con un nivel razonable de certeza". El verano boreal logró avanzar, con apoyo bipartidario, un proyecto de ley federal que también tiene una sección de verificación de edades. El proyecto, la Ley de Seguridad Infantil Online, requiere que el Instituto Nacional de Normas y Tecnología de Estados Unidos pase un año estudiando la manera en que las plataformas podrán verificar con exactitud las edades a la vez que protegen la intimidad de los menores.

"La línea de RR.PP. en TikTok es que la seguridad de los usuarios es nuestra prioridad número 1", señala un líder de equipo en California. "Eso no es verdad. La prioridad número 1 es el crecimiento

Ese siempre fue un equilibrio difícil para las tecnológicas: la seguridad contra la reserva. Si usan tecnología de reconocimiento facial o piden a los usuarios identificaciones emitidas por los gobiernos, como un carnet de conductor o un pasaporte, las critican por vulnerar el derecho a la intimidad y acumular datos personales. Si solo piden que los usuarios ingresen su fecha de nacimiento, las atacan por no hacer lo suficiente para proteger a chicos que mienten su edad. Y cualquier fricción que derive de la verificación de edades va contra el mensaje contenido en un documento interno de TikTok que pudo ser revisado por Businessweek: "Nuestro objetivo final es aumentar los usuarios diarios activos".

La inminente presión regulatoria puso en primer plano el tema de la seguridad con la edad, y en los últimos 18 meses llevó a algunas de las principales plataformas de redes sociales a contratar a firmas especializadas en cálculos de edad. A diferencia de la tecnología de reconocimiento facial, que busca identificar a una persona y depende de millones de imágenes guardadas, los programas de estimación de edades no retienen, comparte ni reutilizan datos, explica Julie Dawson, directora de políticas y encargada de regulaciones en la firma de identidad digital Yoti Ltd.. La compañía tiene sede en Londres y trabaja con Instagram, que pertenece a Meta; su programa ha estudiado cientos de miles de rostros con edades conocidas, y está orientado a disolver las imágenes en pixeles, analizar las pautas y calcular la edad de la persona.

El año pasado Yoti exhibió la tecnología a TikTok en reuniones privadas. Dawson agrega: "De momento no se decidieron a usarla". TikTok también se entrevistó con Hive, una firma de San Francisco que trabaja con Twitter Inc y con Reddit, indican tres personas al tanto del tema. Esas conversaciones, que empezaron a comienzos de 2021, tampoco avanzaron.

Dawson dice que TikTok estaba "muy preocupada" por permitir a un proveedor de software externo el uso de sus datos biométricos. En febrero de 2021 ByteDance accedió a pagar US$ 92 millones para resolver una demanda presentada en Illinois por usuarios que acusaban a la compañía de utilizar imágenes faciales sin su consentimiento en publicidades direccionadas. TikTok objetó las acusaciones, pero cuatro meses más tarde alteró su política de intimidad para conceder a la app el permiso expreso de reunir "rasgos faciales y de voz" de sus usuarios. En octubre sus directivos fueron interrogados en el Congreso estadounidense respecto de cómo pensaban usar esos datos. Evitaron la pregunta pero dijeron que TikTok acumula menos datos que otras firmas de redes sociales.

El problema, opina Michael Rich, pediatra y director del Laboratorio de Bienestar Digital en el Hospital de Niños de Boston, es que "esas compañías no ven a los usuarios como clientes, los ven como un producto que venden". Las plataformas no imponen de manera seria las restricciones de edad porque no les interesa hacerlo, agrega. "No es noticia para nadie que las firmas simulan pero no se encargan de hacer cumplir las restricciones por edad".

Marc Berkman, CEO de la Organización de Seguridad en Redes Sociales, un grupo de protección de los consumidores, señala que TikTok está perjudicando a los niños al no usar programas externos que calculen edades. "Las protecciones que tienen no son adecuadas", asegura Berkman, cuyo grupo ofrece asesoramiento educativo para mantener fuera de las redes a los niños. "Hay soluciones listas para usarse. Podrían adoptarlas casi de inmediato. Eligieron no hacerlo. Están atendiendo un interés empresario, no de seguridad".

Otras dos muertes ocurrieron en agosto. Archie Battersbee, un niño de 12 años de Essex, Inglaterra, falleció tras pasar meses conectado a un respirador. Lo encontraron inconsciente con un lazo en el cuello. Su madre dijo a la prensa que había intentado la prueba del desmayo, aunque un forense no encontró pruebas que lo respaldaran. También en agosto Leon Brown, de 14 años, fue hallado sin reacción en su casa de Escocia. Informes periodísticos locales dijeron que sus amigos contaron a la madre de Leon que el chico había visto la prueba del desmayo en TikTok y quiso intentarlo con ellos haciendo una videollamada.

"Mi pregunta a TikTok es qué van a hacer para cambiar la plataforma -inquiere Christal Arroyo-. Porque en este punto no es segura para nadie, y ciertamente no lo es para ningún niño". Arroyo afirma que su felicidad se murió con Arriani. "Una app de redes sociales -murmura asombrada-. Nunca pensé que podría llevar a la pérdida de mi hija".

En un video tomado con un celular semanas antes de su muerte Arriani está sentada en el asiento de atrás del auto de sus padres, vestida con un top rosa con flores azules. Tiene atado el pelo oscuro pero algunos cabellos rebeldes se ven por encima de las orejas. Sostiene el teléfono con una mano, la cámara a tan poca distancia que se puede ver que hace poco perdió un diente de leche. "No pienses en lo que dicen los demás -comenta-. Tengan confianza y sean apasionados porque todo en este mundo es hermoso". Sopla un beso a la cámara y hace la señal de la paz. "Así que, adiós", dice sonriendo.

Businessweek envió el video a Hive, una de las compañías que se entrevistó con TikTok. Su modelo de aprendizaje informático disolvió el video en cuadros y revisó cada uno de ellos para dar con la edad aproximada de Arriani. "La tecnología para hacerlo ya existe -señala el CEO Kevin Guo-. Pero tal vez las plataformas prefieren no comprender la magnitud del tema".

A Hive le llevó tres segundos calcular que Arriani tenía diez años. La niña murió tres meses antes de cumplirlos.

Fotografías de Dave Kasnic

La versión original de esta nota se publicó en el número 350 de revista Apertura.

Temas relacionados
Más noticias de TikTok
Noticias de tu interés

Compartí tus comentarios

¿Querés dejar tu opinión? Registrate para comentar este artículo.