Australia ha dado un paso que muchos gobiernos llevaban tiempo estudiando: una prohibición casi total del acceso a redes sociales para menores de 16 años. La nueva normativa obliga a las plataformas a cerrar o desactivar las cuentas de los adolescentes de 13 a 15 años y a impedir que los más jóvenes creen nuevos perfiles. El cambio, que se enmarca en la llamada Ley de Seguridad Online, ha levantado un intenso debate que ya se sigue muy de cerca en Europa y, en particular, en España, donde se tramitan normas similares.
Mientras el gobierno australiano defiende la medida como una herramienta imprescindible para proteger la salud mental y el bienestar digital de los menores, las empresas tecnológicas, parte de la comunidad experta y los propios adolescentes alertan de sus posibles efectos indeseados. Se discute si realmente reducirá la exposición a contenidos dañinos o si, por el contrario, empujará a los jóvenes hacia soluciones menos seguras y fuera del control parental.
Qué implica la prohibición en Australia y a quién afecta
La ley australiana, una reforma de la normativa de seguridad online centrada en la edad mínima para redes sociales, establece que a partir del 10 de diciembre los menores de 16 años no pueden crear ni mantener cuentas en una decena de plataformas. Desde varios días antes, las empresas ya han comenzado a bloquear perfiles de usuarios en edades comprendidas entre los 13 y los 15 años para llegar a esa fecha con los deberes hechos.
La norma se aplica a servicios cuyo objetivo principal o significativo es facilitar la interacción social online entre usuarios, que permiten publicar contenido y que posibilitan la comunicación bidireccional. En la lista de plataformas sometidas a la prohibición se incluyen Facebook, Instagram, Threads, TikTok, X, Snapchat, YouTube, Reddit, Kick y Twitch, todas ellas muy utilizadas por adolescentes para entretenimiento, comunicación y acceso a información.
Quedan fuera algunos servicios que el gobierno considera de otro tipo, como YouTube Kids, Google Classroom, Messenger Kids o WhatsApp, que no se consideran redes sociales generales con interacción social abierta bajo los criterios de la ley, y tampoco se incluyen otros servicios de mensajería. Otras plataformas, como Roblox o Discord, han intensificado sus controles de edad en determinadas funciones, conscientes de que podrían terminar incorporándose al listado si se percibe un éxodo de menores hacia ellas.
Es importante subrayar que ni los menores ni sus progenitores serán sancionados si burlan la prohibición. Las responsabilidades, y las sanciones, se concentran en las empresas tecnológicas, que deben demostrar que han dado pasos razonables para impedir que los adolescentes de menos de 16 años tengan perfiles activos.
Multas millonarias y obligación de verificar la edad

El elemento más contundente de la norma es el régimen sancionador: las plataformas se exponen a multas de hasta 49,5 o 50 millones de dólares australianos (en torno a 28 millones de euros) por infracciones graves o reiteradas. Esta amenaza económica es la que ha llevado a compañías como Meta o Google a moverse con rapidez, aunque no oculten su desacuerdo con el enfoque elegido por Canberra.
Para cumplir, las tecnológicas tienen que implantar sistemas robustos de verificación de edad. El gobierno habla de combinar varios métodos: documentos de identidad oficiales, reconocimiento facial o de voz, inferencia algorítmica basada en el comportamiento online, datos bancarios o soluciones de terceros especializadas en verificación. Las plataformas no pueden limitarse a la autocertificación de edad ni a la simple autorización parental.
En paralelo, las autoridades han insistido en que se debe minimizar la invasión de la privacidad: se anima a no implantar un registro universal obligatorio de identidad para todos los usuarios adultos y a destruir los datos de verificación una vez completado el proceso. Esta parte de la ley llega en un contexto de preocupación en Australia tras diversos incidentes de filtración masiva de información personal.
Las empresas se enfrentan al reto de encontrar un equilibrio delicado: necesitan demostrar que realizan controles eficaces, pero al mismo tiempo evitar convertirse en repositorios gigantes de datos biométricos o documentos oficiales de millones de usuarios. Este equilibrio, que ya se discute en Bruselas con la identidad digital europea, será clave también para España y el resto de países de la UE.
La reacción de Meta, Google, TikTok y otras plataformas

Las grandes tecnológicas han respondido con una mezcla de acatamiento y crítica abierta. Meta, matriz de Facebook, Instagram y Threads, confirmó que desde el 4 de diciembre empezó a retirar el acceso a estas redes para usuarios menores de 16 años, con el objetivo de tener todas las cuentas afectadas desactivadas antes de la entrada en vigor de la ley.
Durante ese periodo de transición, la compañía permite a los adolescentes conservar y descargar su historial digital, fotos y contenidos, y ha prometido avisarles cuando cumplan 16 años para que puedan recuperar el acceso y encontrar sus perfiles “tal y como los dejaron”. Meta conservará la información de contacto de esos usuarios para notificarles en el futuro, una práctica que también genera interrogantes desde la óptica de privacidad.
La empresa ha sido especialmente vocal en su rechazo al enfoque australiano. Directivas de Meta han subrayado que desconectar a los adolescentes de sus amigos y comunidades puede ser contraproducente y empujar a los jóvenes a buscar alternativas menos seguras. La compañía defiende que un sistema estándar en el nivel de las tiendas de aplicaciones, con verificación de edad y aprobación parental al descargar apps, sería una vía más proporcionada y coherente.
Google, propietaria de YouTube, también ha expresado su malestar. La plataforma de vídeo fue incluida finalmente en la lista de servicios sometidos a la prohibición, pese a haber sido inicialmente eximida por su uso educativo. YouTube ha avisado a unos centenares de miles de adolescentes de 13 a 15 años de que perderán sus cuentas con inicio de sesión, aunque seguirán pudiendo ver contenidos de manera anónima, lo que complica el control parental y el filtrado de contenidos.
Por su parte, TikTok y Snapchat han explicado que utilizarán mecanismos de verificación de edad de múltiples capas para identificar y eliminar cuentas de menores de 16 años, mientras que otras plataformas como Kick han anunciado que recurrirán a soluciones ya implantadas en colaboración con proveedores de verificación externos. Aunque muchas empresas discrepan de la filosofía de la ley, la mayoría ha preferido alinearse con el regulador para evitar enfrentamientos legales prolongados.
Adolescentes, padres y tribunales: un país dividido

La aplicación de la prohibición no solo ha tensado la relación entre el Gobierno australiano y las grandes tecnológicas, sino que también ha polarizado a la sociedad. Encuestas recientes apuntan a que una gran mayoría de adultos, alrededor de tres cuartas partes, ven con buenos ojos limitar el acceso a redes sociales a menores de 16 años, preocupados por el ciberacoso, la exposición a contenidos violentos o misóginos y la presión social que generan estas plataformas.
Sin embargo, la reacción de los propios adolescentes es mucho más heterogénea. Algunos jóvenes ya han creado cuentas con edades falsas antes de la entrada en vigor de la norma, otros comparten perfiles con sus padres o familiares mayores, y muchos exploran el uso de redes privadas virtuales (VPN) para saltarse no solo las restricciones de edad, sino también las limitaciones geográficas que impone la regulación australiana.
El conflicto ha llegado también a los tribunales. Dos jóvenes de 15 años, Noah Jones y Macy Neyland, han presentado una demanda ante el Tribunal Superior con el apoyo del Proyecto Libertad Digital, liderado por el diputado libertario John Ruddick. Argumentan que la ley vulnera el derecho implícito a la libertad de comunicación política, al impedir que los menores participen en debates públicos y conversen sobre asuntos gubernamentales en los espacios donde su generación se informa y se organiza.
Entre las familias se aprecian posturas muy dispares. Hay padres que reconocen haber abierto cuentas a sus hijos con sus propios datos para mantener cierto control sobre el uso que hacen de las plataformas. Otros celebran tener, por fin, un argumento legal claro para negar la apertura de perfiles a edades tempranas. Y no faltan casos extremos, como el de una familia de influencers que ha decidido mudarse al Reino Unido para evitar el cierre de las cuentas de sus hijos adolescentes, que forman parte de su actividad profesional.
Junto a estas reacciones, un grupo importante de psicólogos, pedagogos y expertos en salud mental ha advertido de que centrar todo el problema en la prohibición puede desviar la atención de la verdadera complejidad del malestar adolescente. Más de un centenar de especialistas han firmado documentos en los que señalan que la ansiedad, la depresión o las autolesiones entre jóvenes tienen múltiples causas y no se resolverán únicamente cerrando sus perfiles en redes sociales.
Motivos de salud mental y efectos en el desarrollo
La justificación principal que esgrime el gobierno australiano se basa en datos sobre uso intensivo de redes sociales entre los 10 y los 15 años. Estudios encargados por Canberra indican que la práctica totalidad de los menores de esa franja de edad utilizan redes, y que en torno a siete de cada diez dicen haber estado expuestos a contenidos o comportamientos dañinos, desde mensajes misóginos hasta vídeos violentos o materiales que promueven trastornos alimentarios y autolesiones.
El primer ministro y la ministra de Comunicaciones han insistido en que el diseño de las plataformas, pensado para maximizar el tiempo de uso y la interacción constante, contribuye a generar presión social, alteraciones del sueño, problemas de concentración y una imagen corporal distorsionada, sobre todo entre las chicas adolescentes. En esa línea, estudios internacionales apuntan a que pasar más de 3,5 horas al día en redes sociales se asocia con un aumento de problemas de salud mental.
Psicólogos especializados en adolescencia recuerdan que esta etapa vital es especialmente delicada: el cerebro está en pleno proceso de reorganización, las conexiones neuronales se reconfiguran y la vulnerabilidad a la presión del entorno es muy elevada. Algunos trabajos recientes sugieren que el desarrollo cerebral continúa bien entrados los veinte o incluso los treinta años, lo que complica fijar una edad concreta a partir de la cual el impacto de las redes deja de ser problemático.
Sin embargo, varias voces expertas plantean dudas sobre la idoneidad de una prohibición rígida a los 16 años. Argumentan que cumplir años no garantiza una mayor madurez de forma automática, del mismo modo que hay adolescentes más pequeños capaces de gestionar su presencia digital de manera responsable si han recibido la educación adecuada. Por eso reclaman combinar límites de edad con programas de acompañamiento, alfabetización digital, educación afectivo-sexual y aprendizaje del pensamiento crítico.
Desde una óptica más crítica, algunos profesionales temen que las familias y los gobiernos caigan en la tentación de considerar que el problema está resuelto solo por limitar el acceso legal a redes sociales, descuidando otros factores que alimentan el malestar adolescente, como la presión académica, la precariedad económica, el clima social o la falta de espacios de ocio seguros fuera del entorno digital.
El debate que llega a Europa y al caso español
Mientras Australia se convierte en uno de los primeros países del mundo en aplicar una prohibición tan amplia de redes sociales para menores, la Unión Europea avanza por una senda distinta, pero con puntos de contacto claros. El Parlamento Europeo ha respaldado una propuesta para fijar una edad armonizada en la que se prohíba el acceso a redes sociales a menores de 13 años y se exija consentimiento parental para los jóvenes de entre 13 y 16.
Esta votación europea no es aún vinculante, pero refleja un consenso creciente en torno a la necesidad de reforzar la protección de los menores en entornos digitales. Bruselas impulsa, además, el desarrollo de una aplicación europea de verificación de edad y la cartera de identidad digital europea (eID), que permitirían acreditar la edad sin necesidad de entregar copias masivas de documentos a cada plataforma.
En España, este debate no es teórico: está en plena tramitación una ley para la protección de los menores en entornos digitales que prevé elevar de los 14 a los 16 años la edad mínima para abrir o usar cuentas en redes sociales. El Ministerio de Transformación Digital y Función Pública lleva tiempo trabajando en una app de verificación de edad que ya ha pasado el examen del Centro Criptológico Nacional y se probará en un proyecto piloto europeo.
El modelo español, a diferencia del australiano, se orienta más a crear una infraestructura común de verificación y a reforzar el papel de los padres, sin llegar por ahora a un veto tan tajante. Se aspira a que los menores de 13 años no tengan cuentas en redes y que, entre los 13 y los 16, su acceso dependa del consentimiento informado de sus tutores, alineando la normativa con la línea que propone el Parlamento Europeo.
En el entorno europeo, países como Francia, Dinamarca o Noruega exploran marcos similares, con límites de edad de 15 o 16 años y propuestas de toque de queda digital en determinados horarios. El Reino Unido ha aprobado reglas más severas para obligar a las plataformas a reducir la exposición de los jóvenes a contenidos ilegales o dañinos, con sanciones que pueden alcanzar a los ejecutivos si no se aplica lo dispuesto por el regulador.
Prohibir, regular… y educar: la otra pata del debate
Una de las críticas más recurrentes a la medida australiana, que resuena también entre psicólogos y educadores en España, es que la prohibición por sí sola no bastará para eliminar los riesgos asociados al uso de redes sociales. La experiencia de otros contextos legales demuestra que muchos menores encuentran formas de eludir las restricciones: desde mentir sobre la edad hasta recurrir a cuentas prestadas, VPNs o plataformas menos conocidas donde el control es más laxo.
Expertas en psicología y sexología consultadas en el ámbito hispanohablante inciden en la necesidad de trabajar en paralelo la educación digital, el pensamiento crítico y la autonomía responsable. Proponen programas de introducción gradual a las redes sociales, con supervisión, acompañamiento y uso de herramientas de control parental, en lugar de un simple corte de acceso que se levanta bruscamente al cumplir una edad determinada.
Estas especialistas advierten de que, si la conversación pública se centra únicamente en si hay que prohibir o no las redes antes de los 16, se corre el riesgo de desatender la raíz de muchos problemas. Adolescentes que se sienten controlados o estigmatizados pueden ocultar aún más su actividad online, dificultando que compartan experiencias de acoso, sextorsión o exposición a contenidos dañinos, especialmente si creen que serán castigados por haber accedido a plataformas “prohibidas”.
En ese sentido, se insiste en que, aunque las leyes establezcan edades mínimas y sanciones para las empresas, el papel de las familias, los centros educativos y los servicios de salud mental seguirá siendo determinante. Acompañar, escuchar y ofrecer herramientas para gestionar la presión estética, el odio online o la comparación constante con otros usuarios tiene un impacto que ninguna verificación de edad puede sustituir por completo.
El movimiento de Australia ha servido como catalizador de un debate global que ya estaba sobre la mesa: hasta qué punto deben las redes sociales formar parte de la vida cotidiana de los menores, qué responsabilidades tienen las plataformas y qué papel corresponde a los poderes públicos y a las familias. En Europa y España, donde se preparan cambios legales importantes, la experiencia australiana será un punto de referencia, tanto para replicar sus aciertos como para evitar sus errores.
