Indonesia ha decidido dar un golpe de efecto en la regulación digital infantil y juvenil al impedir el acceso a las redes sociales consideradas de alto riesgo a los menores de 16 años. La medida, que se aplicará de forma gradual pero con un calendario ya fijado, sitúa al país del Sudeste Asiático en la primera línea de una tendencia global que busca frenar los efectos más dañinos del entorno online sobre niños y adolescentes.
El Gobierno indonesio justifica este paso alegando que el país atraviesa una auténtica «emergencia digital» marcada por la pornografía, el ciberacoso, el fraude en línea y la adicción a las pantallas. Sobre la mesa no solo está la protección de los menores, sino también la exigencia de que las grandes tecnológicas asuman mucha más responsabilidad en la gestión de sus plataformas.
Qué va a cambiar en Indonesia y desde cuándo
Las autoridades han detallado que a partir del 28 de marzo las cuentas de usuarios menores de 16 años empezarán a ser desactivadas en las plataformas catalogadas como de «alto riesgo». En esta lista figuran servicios de uso masivo: YouTube, TikTok, Facebook, Instagram, Threads, X (antes Twitter), la app de directos Bigo Live y el popular videojuego en línea Roblox, entre otros.
Según la hoja de ruta difundida por el Ministerio de Comunicación y Asuntos Digitales, el veto no se aplicará de la noche a la mañana, sino que se llevará a cabo «por etapas» hasta que todas las plataformas cumplan las nuevas obligaciones. El plan prevé que las compañías adapten sus sistemas de verificación de edad y de control de riesgos antes de enfrentarse a las sanciones más duras.
El propio Ejecutivo admite que la decisión puede generar molestias y resistencias: reconoce que la medida «puede causar incomodidad inicial» tanto a usuarios como a empresas. Aun así, la ministra responsable, Meutya Hafid, insiste en que el Gobierno «no puede quedarse de brazos cruzados» mientras el futuro de los menores se ve condicionado por entornos digitales que no controlan.
Indonesia, con más de 270 millones de habitantes y una de las mayores poblaciones conectadas del Sudeste Asiático, se ha convertido en un mercado clave para las plataformas sociales y de entretenimiento. Decenas de millones de menores utilizan a diario redes sociales y juegos online, lo que incrementa la magnitud del cambio regulatorio que ahora se plantea.
En la práctica, la nueva regulación supondrá que las cuentas identificadas como pertenecientes a menores serán bloqueadas o restringidas en función del nivel de riesgo de cada servicio, obligando a las empresas a revisar sus bases de usuarios y sus métodos de registro.

Cómo se definen las plataformas de riesgo y qué límites por edad habrá
El nuevo esquema legal indonesio introduce un sistema de clasificación por niveles de riesgo para redes sociales, juegos y servicios digitales con interacción entre usuarios. La categoría de «alto riesgo» incluirá aquellas plataformas donde exista facilidad para contactar con desconocidos, alta exposición a contenidos sexuales o violentos, vulnerabilidades en la protección de datos personales o un fuerte potencial adictivo.
En paralelo, la normativa establece diferentes franjas de uso según la edad. Los menores de 13 años quedarán limitados a servicios específicamente diseñados para público infantil y con consentimiento expreso de sus padres o tutores, sin posibilidad de acceso a plataformas con mensajería interna o interacción abierta con otros usuarios.
Para el grupo entre 13 y 16 años, el enfoque es más matizado: solo podrán utilizar redes consideradas de «bajo riesgo» y siempre con autorización de un adulto. Esto abre la puerta a que algunas aplicaciones educativas o servicios sociales fuertemente moderados sigan disponibles, mientras que los gigantes del entretenimiento y el vídeo corto quedarán totalmente fuera de su alcance.
La ministra Hafid ha subrayado que el objetivo central es «recuperar el control del futuro de nuestros niños» y «humanizar la tecnología», de manera que el diseño de las plataformas deje de priorizar exclusivamente el aumento del tiempo de pantalla y la interacción constante.
Para determinar el nivel de peligrosidad de cada red, el Gobierno se apoyará en varios criterios técnicos y de contenido: desde las herramientas de reporte y moderación disponibles hasta la forma en que se recomiendan vídeos y publicaciones, pasando por la manera en que se almacenan y se tratan los datos de los menores.
Motivos del veto: de la pornografía a la salud mental
En los comunicados oficiales, el Ministerio de Comunicación de Indonesia ha sido claro al enumerar los motivos de esta intervención. La lista de riesgos incluye pornografía, ciberacoso, estafas digitales, desinformación y adicción a las redes sociales, todos ellos fenómenos que, según las autoridades, se han intensificado en los últimos años.
La preocupación no se limita al contenido explícito; abarca también el impacto del uso intensivo de pantallas sobre la salud mental y el rendimiento académico de los adolescentes. Estudios internacionales, a los que el Gobierno indonesio hace referencia, apuntan a vínculos entre uso compulsivo de redes sociales y aumento de síntomas de ansiedad, depresión y problemas de atención.
Hafid ha llegado a hablar de una auténtica «emergencia digital» y ha defendido que el Estado debe intervenir para que los padres «no tengan que luchar solos contra los gigantes de los algoritmos». La frase resume bien la idea de trasladar parte del peso del control parental a las empresas tecnológicas, obligándolas a rediseñar sus productos pensando en la protección de los menores.
Las autoridades también apuntan a la expansión de contenidos fraudulentos, apuestas ilegales y campañas de desinformación como una razón adicional para endurecer el marco regulatorio. De hecho, el Ministerio indonesio ha reprochado a algunas plataformas que solo hayan actuado sobre una pequeña parte del contenido denunciado por actividades ilícitas.
En un país donde la adopción de teléfonos inteligentes ha sido muy rápida y el acceso a internet crece año tras año, la sensación institucional es que los mecanismos tradicionales de supervisión familiar se han quedado cortos frente a la escala y la velocidad de los servicios digitales actuales.
Obligaciones para las plataformas y régimen de sanciones
El paquete regulatorio aprobado no se limita a fijar un límite de edad; incluye también un sistema de obligaciones y castigos dirigido directamente a las empresas tecnológicas. Las plataformas deberán implementar sistemas eficaces de verificación de edad, controles parentales reforzados y herramientas de filtrado que reduzcan el acceso de menores a contenidos sensibles.
El texto prevé que, en caso de incumplimiento, las compañías puedan enfrentarse a multas, suspensiones temporales del servicio e incluso al cierre definitivo de sus operaciones en Indonesia. Se trata de un mecanismo que busca forzar a los gigantes digitales a tomarse en serio la protección de los menores, bajo la amenaza de perder el acceso a un mercado con decenas de millones de usuarios.
El desafío técnico principal reside en cómo verificar la edad de los usuarios sin recabar datos excesivamente sensibles. Expertos en derechos digitales han advertido de que los sistemas de verificación deben respetar los principios de necesidad y proporcionalidad para evitar que la protección infantil se convierta, en la práctica, en una gran base de datos vulnerable a filtraciones o usos indebidos.
Además, muchos analistas señalan que las actuales soluciones basadas en la mera autodeclaración de la edad resultan claramente insuficientes, ya que cualquier adolescente puede falsear su fecha de nacimiento para esquivar las restricciones. De ahí que se explore el uso de documentos de identidad o sistemas híbridos que combinen autenticación, supervisión parental y límites de diseño.
Desde el punto de vista económico, se espera una resistencia considerable por parte de las multinacionales del sector, dado que niños y adolescentes son uno de los segmentos con mayor potencial de crecimiento y de impacto publicitario a largo plazo. Perder presencia entre los usuarios más jóvenes puede alterar modelos de negocio construidos sobre el volumen masivo de datos y la personalización algorítmica.
Reacciones sociales y debate interno en Indonesia
Las primeras reacciones dentro del país muestran un apoyo significativo por parte de muchos padres y madres, que ven en la prohibición una especie de alivio frente a la sensación de no poder controlar lo que sus hijos hacen con el móvil. Algunos progenitores han explicado en medios regionales que, pese a poner límites en casa, las presiones del entorno y las estrategias de las propias plataformas dificultan cualquier intento de restricción individual.
Sin embargo, no todo el mundo aplaude sin matices la medida. Diversas voces señalan que un veto tan amplio podría limitar el acceso de los menores a recursos educativos, espacios de socialización positiva o contenidos creativos que también forman parte del ecosistema digital actual.
Organizaciones de la sociedad civil y expertos en infancia han planteado que, además de prohibir, es imprescindible reforzar la educación digital tanto en las escuelas como en las familias, de forma que niños y adolescentes desarrollen criterios propios para moverse con más seguridad online.
Otro de los puntos delicados del debate gira en torno a la frontera entre protección y restricción de la libertad de expresión. Aunque la regulación está formalmente dirigida a menores, algunos analistas temen que el aumento del control pueda abrir la puerta a excesos en la censura de contenidos o a un filtrado demasiado amplio de información.
Pese a estas dudas, la línea argumental del Gobierno es que las medidas son urgentes y que, aunque perfectibles, envían un mensaje claro a la industria tecnológica: los intereses comerciales no pueden estar por encima del bienestar de los menores.
Una ola regulatoria global: de Australia a la Unión Europea y España
El paso dado por Indonesia no se entiende de forma aislada, sino como parte de una tendencia internacional hacia mayores «barreras digitales» para los menores. En diciembre, Australia ya obligó a TikTok, YouTube y otras redes a eliminar cuentas de usuarios menores de 16 años, lo que se tradujo en la revocación de millones de perfiles juveniles en pocas semanas.
En Europa, el debate avanza a distintas velocidades. Francia ha respaldado en la Asamblea Nacional un proyecto para prohibir el acceso a redes sociales a menores de 15 años, y el Reino Unido ha lanzado consultas públicas para sondear la opinión de jóvenes y familias sobre un eventual veto o restricciones reforzadas.
España se ha colocado entre los países más activos en esta discusión. El Gobierno español ha planteado la posibilidad de fijar un mínimo de 16 años para el uso de redes sociales, combinando este límite con exigencias de responsabilidad directa para los directivos de las tecnológicas si no se cumplen las normas de protección de menores.
En paralelo, dentro de la Unión Europea se ha puesto en marcha un grupo de expertos encargado de estudiar si es necesario implantar un marco común de prohibición o restricción de redes sociales para menores. Estados como Dinamarca, Grecia y la propia España presionan para avanzar hacia una línea regulatoria compartida a nivel comunitario.
Fuera del ámbito europeo, países como Malasia e India también barajan medidas de corte similar. Malasia está probando un sistema piloto de regulación apoyado en su documento nacional de identidad (MyKad) para verificar la edad, mientras que India ha manifestado su intención de reforzar la protección de los menores frente a abusos en línea y contenidos dañinos.
Retos técnicos, legales y educativos por delante
El despliegue de este tipo de prohibiciones abre un abanico de retos que van mucho más allá de aprobar una ley. La verificación de edad es uno de los campos más complejos: exigir documentos oficiales o datos biométricos plantea serias dudas de privacidad, pero mantener el sistema actual de autodeclaración deja la puerta abierta al incumplimiento masivo de la norma.
Expertos en protección de datos en la región recuerdan que cualquier recogida de información relativa a menores debe cumplir estrictamente criterios de necesidad, proporcionalidad y seguridad, para evitar que bases de datos con perfiles infantiles se conviertan en objetivos prioritarios para ciberataques o usos comerciales abusivos.
También se prevé una negociación intensa con las grandes tecnológicas. Para compañías como Meta, ByteDance o Google, el segmento adolescente es clave en términos de fidelización a largo plazo. Perder presencia entre los usuarios más jóvenes puede forzar cambios profundos en modelos de producto y de ingresos basados en la publicidad dirigida.
En paralelo, gobiernos y organizaciones internacionales insisten en que las prohibiciones deben complementarse con políticas de alfabetización digital. No basta con bloquear el acceso a ciertas aplicaciones: se necesitan programas educativos que enseñen a detectar contenidos engañosos, a gestionar el tiempo de conexión y a proteger la propia privacidad.
La experiencia de Australia y los debates abiertos en la Unión Europea indican que el futuro de la regulación digital para menores combinará leyes más estrictas, herramientas técnicas de control y un mayor protagonismo de familias y escuelas, con el foco puesto en reducir daños sin desconectar por completo a los jóvenes de un entorno que forma parte ya de su realidad cotidiana.
Lo que empieza a perfilarse, con Indonesia como uno de los casos más llamativos, es un cambio de etapa en la forma en que los Estados y las sociedades abordan el acceso de niños y adolescentes a las redes sociales: de la confianza casi absoluta en la autorregulación de las plataformas se pasa a un escenario de reglas más duras, responsabilidades compartidas y un debate abierto en Europa y otras regiones sobre hasta dónde deben llegar las restricciones para proteger a los menores sin dejar de lado sus derechos digitales.