Demandó madre a Roblox y Discord por muerte de su hijo adolescente
Una madre de California llevó a los tribunales a Roblox y Discord tras la muerte de su hijo adolescente. La denuncia señala que ambas plataformas no protegieron al menor de los abusos que sufrió en línea.
Por: Redacción 17 Septiembre 2025 12 18
Rebecca Dallas, madre de Ethan Dallas, un joven de 15 años que se quitó la vida en abril de 2024 en California, presentó una demanda contra Roblox y Discord. Acusa a ambas compañías de haber permitido los abusos que sufrió su hijo a través de estas plataformas.
La denuncia fue presentada en la Corte Superior del Condado de San Francisco y sostiene que las empresas operaron “de forma imprudente y engañosa”, lo que derivó en la explotación del menor y finalmente, en su suicidio.
Según el documento, Ethan era “un niño brillante e imaginativo que amaba los videojuegos, hacer streams y convivir con amigos en línea”. Empezó a jugar en Roblox a los 9 años con autorización de sus padres, pero a los 12 fue contactado por un depredador adulto que fingía ser otro menor.
“Trágicamente, Ethan fue permanentemente dañado y atormentado por estas experiencias, y murió por suicidio a los 15 años”, señala la denuncia.
Señalan fallas de seguridad en las plataformas
La familia afirmó que confiaba en la seguridad de ambas aplicaciones por su publicidad y sus supuestos controles, pero en realidad presentaban graves deficiencias. Roblox permite crear cuentas sin verificación de edad, lo que facilita que menores usen datos falsos. Discord, en tanto, carece de un filtro real para comprobar la edad de los usuarios y ha sido señalada por alojar contenido explícito.
“El diseño de las apps convierte a los niños en presas fáciles”, aseguró la denuncia.
Un vocero de Roblox lamentó la muerte del joven y declaró a NBC News: “Siempre nos esforzamos por mantener los más altos estándares de seguridad”. La compañía informó que este año implementó más de 100 funciones de seguridad y mantiene un equipo de moderación activo las 24 horas. Discord, por su parte, reiteró que exige una edad mínima de 13 años y aseguró que emplea tecnología avanzada y personal especializado para detectar contenido dañino.

No fue un caso aislado
La firma legal Anapol Weiss, que representa a la madre, afirmó que esta es la novena demanda contra estas plataformas.
“Estos casos muestran las consecuencias devastadoras cuando plataformas multimillonarias crean entornos que permiten a los depredadores atacar a vulnerables”, declaró Alexandra Walsh, abogada del caso. “Estas empresas están ganando miles de millones. Los niños están pagando el precio”.

Las Más Leídas
