El 26 de noviembre de 2025 el Parlamento Europeo aprobó una resolución no vinculante que insta a la UE a establecer una edad mínima armonizada para el acceso a redes sociales, plataformas de vídeo y “compañeros” o chatbots de IA. Según la propuesta, la edad por defecto sería 16 años para acceso sin consentimiento parental; los jóvenes de 13 a 16 años podrían acceder sólo con autorización de los tutores, y los menores de 13 años quedarían excluidos de dichos servicios. Al tratarse de una resolución no legislativa, su aplicación real requerirá que la Comisión Europea presente propuestas legales y que los Estados miembros y el Consejo negocien medidas vinculantes.
La iniciativa responde a crecientes preocupaciones sobre salud mental infantil, diseño adictivo de plataformas y la capacidad de herramientas de IA para generar contenido no apropiado o engañoso. Entre las medidas que acompañan la recomendación figuran la prohibición de diseños deliberadamente adictivos orientados a menores, límites a la publicidad manipulativa y a elementos tipo “apuesta” (loot boxes), y la posibilidad de bloquear sitios no conformes con las nuevas reglas propuestas. Los legisladores también han pedido mecanismos de responsabilización más estrictos para plataformas y, en algunos debates, se mencionó la idea de establecer responsabilidades más directas para altos ejecutivos en casos de incumplimiento.
Impacto y proceso: aunque la resolución envía una señal política fuerte, no cambia la ley por sí sola. La transición desde esta recomendación hasta una norma vinculante implicaría: (1) la elaboración de una propuesta de la Comisión, (2) negociaciones entre Parlamento y Consejo, y (3) la transposición y ejecución en cada país miembro. Algunos Estados ya exploran medidas nacionales similares, por lo que la resolución puede acelerar iniciativas domésticas y generar presión sobre las grandes plataformas para adaptar opciones de verificación de edad, consentimiento parental y diseño por audiencias.
Reacciones previstas y dificultades prácticas: expertos y empresas han señalado varios retos técnicos y derechos en tensión —verificar edad de forma fiable sin vulnerar la privacidad, evitar discriminación por acceso y asegurar que las medidas no lleven a gestores a eludir responsabilidades mediante cambios superficiales. También hay interrogantes sobre el comercio transfronterizo de servicios digitales y la interoperabilidad de sistemas de verificación. Los defensores de la tutela digital celebran la iniciativa como un avance necesario para proteger a menores, mientras que la industria reclama plazos razonables y estándares técnicos claros para implementar controles robustos.
Conclusión práctica: la resolución del Parlamento marca una intención política clara —proteger a menores frente a riesgos de contenido, diseño y monetización—, pero su efecto real dependerá de los siguientes pasos legislativos y de la capacidad técnica y política para articular reglas que equilibren seguridad infantil, derechos fundamentales y viabilidad operativa para plataformas digitales.



