El Parlamento Europeo aprobó el 26 de noviembre una resolución no vinculante que sugiere establecer una edad mínima de 16 años para el acceso libre a redes sociales, plataformas de video y chatbots de inteligencia artificial —con la posibilidad de permitir el uso entre los 13 y 16 años solo con consentimiento parental. La medida busca proteger a menores de los riesgos de adicción, salud mental y exposición a contenidos inapropiados, fenómenos que –según los eurodiputados– han crecido con el uso intensivo de tecnología por parte de niñas, niños y adolescentes. Además, la resolución solicita la prohibición de prácticas consideradas manipulativas o adictivas —como el “scroll infinito”, la reproducción automática o los sistemas de recompensas— así como de publicidad engañosa o similitudes con apuestas, medidas pensadas para reducir los efectos nocivos en públicos vulnerables.
No obstante, la recomendación aún no tiene carácter obligatorio: corresponde a cada Estado miembro de la Unión Europea determinar si la adopta mediante legislación nacional. Esto genera interrogantes sobre su eficacia real, sobre todo en países con altos índices de conectividad juvenil y en contextos globales donde muchas plataformas operan sin fronteras.
Desde un enfoque crítico, la propuesta representa un salto hacia la protección infantil en entornos digitales —un reconocimiento institucional del impacto potencial de la IA y las redes sobre menores—. Pero también abre debates sobre libertad digital, educación mediática, desigualdad de acceso y viabilidad de controles efectivos. En regiones fuera de Europa, como América Latina, la medida alcanza valor simbólico más que práctico: cualquier adopción requeriría una adaptación normativa local, así como infraestructura de verificación, cultura de regulación y voluntad política.



