|
Si no visualiza correctamente el mensaje haga clic aquí |
|
|
|
|
|
|
|
El pasado 9 de octubre, el Comité Europeo de Protección de Datos (CEPD) ha adoptado las Directrices 1/2024 sobre el tratamiento de datos personales basado en el interés legítimo, en fase de consulta pública hasta el 20 de noviembre de 2024. |
|
|
|
|
|
Este documento analiza las condiciones que deben cumplirse para que los responsables de los datos puedan amparar un tratamiento de estos en la indicada base jurídica de legitimación contenida en el artículo 6.1.f del Reglamento General de Protección de Datos (RGPD), e incluye consideraciones específicas en relación con los tratamientos con fines publicitarios.
Para poder basarse en un interés legítimo, el responsable debe valorar la necesidad de las actividades de tratamiento que desea llevar a cabo para alcanzar la finalidad perseguida, y si existen otros medios menos intrusivos a su alcance para lograrla.
Además, se deberán ponderar los intereses legítimos del responsable y los derechos y libertades de los interesados, tener en cuenta las expectativas del interesado antes de llevar a cabo el tratamiento de sus datos, e introducir garantías adicionales para mitigar los riesgos del tratamiento.
Estas Directrices explican cómo debe llevarse a cabo en la práctica la evaluación del riesgo en una serie de contextos específicos, como la prevención del fraude, el marketing directo y la seguridad de la información.
|
|
|
|
|
|
|
|
El pasado 3 de octubre, la Comisión Europea ha publicado un informe de evaluación, con sus conclusiones sobre el control de la adecuación normativa en materia de equidad digital (“digital fairness fitness check”). |
|
|
|
|
|
Este informe analiza si las actuales normas de consumo de la UE, incluida la Directiva sobre prácticas comerciales desleales (DPCD), la Directiva sobre derechos de los consumidores, la Directiva sobre cláusulas contractuales abusivas y el Reglamento de Servicios Digitales (DSA) son suficientes para abordar determinadas prácticas digitales que pueden resultar desleales.
La evaluación realizada concluye que sería necesaria una adaptación de las indicadas normas al entorno digital para poder abordar determinadas prácticas que se consideran perjudiciales y problemáticas, y en particular:
|
|
●
|
Patrones oscuros: De acuerdo con el informe, solo unos pocos patrones oscuros se encuentran actualmente prohibidos en virtud de la DPCD, y su aplicación depende de un análisis caso por caso, lo que debilita la eficacia de dicha normativa. También considera que el reciente DSA tendrá una relevancia limitada para regular este tipo de prácticas.
|
|
●
|
Diseño adictivo: La actual legislación de la UE en materia de consumo resulta insuficiente para abordar los posibles daños mentales y perjuicios derivados de la pérdida de tiempo originados por determinadas funcionalidades y diseños de interfaz que promueven la adicción y perjudican la toma de decisiones.
|
|
●
|
Prácticas de personalización publicitaria: La actual legislación de la UE en materia de consumo tampoco resulta suficientemente clara ni eficaz para abordar las cuestiones relacionadas con la elaboración de perfiles.
|
|
●
|
Marketing de influencia: si bien la DPCD establece una lista clara de prohibiciones en esta materia, sin embargo, el informe detecta una incertidumbre legal en torno a los estándares requeridos para divulgar este tipo de comunicaciones, y sobre las responsabilidades de las marcas anunciantes.
|
|
|
Previsiblemente, este informe podría servir de base para la elaboración de una futura Ley de Equidad Digital (“Digital Fairness Act”).
|
|
|
|
|
|
|
El pasado 25 de septiembre, la Comisión Nacional de los Mercados y la Competencia (CNMC) abrió el plazo de consulta pública sobre los sistemas de auto y corregulación para la calificación por edad de los contenidos, que finalizará el próximo 28 de octubre. |
|
|
|
|
|
La consulta pública, que está liderada por la CNMC y el Ministerio de Transformación Digital y Función Pública, como autoridades competentes, pretende impulsar un sistema que garantice una mayor seguridad en los contenidos audiovisuales.
Esta iniciativa está en línea con la Ley General de Comunicación Audiovisual, que apuesta por la autorregulación y corregulación como herramientas clave para proteger a los menores frente a contenidos inapropiados.
Este marco regulador se aplica a los servicios de comunicación audiovisual tradicionales (radio y televisión), e igualmente a las plataformas de intercambio de vídeos y a los usuarios de especial relevancia.
La consulta pública comprende tanto el contenido del código de conducta para la calificación de los programas audiovisuales y sistema de descriptores visuales, que ha sido acordado por 24 prestadores de comunicación audiovisual, como otro tipo de cuestiones generales tales como la resolución de reclamaciones de usuarios, el sistema de seguimiento y evaluación, el sistema de sanciones, y la gobernanza y diseño de los órganos independientes de control en esta materia.
|
|
|
|
|
|
|
|
El pasado 20 de septiembre, la Comisión Europea abrió un procedimiento TRIS (“Technical Regulation Information System”) sobre el Anteproyecto de Ley Orgánica para la Protección de los Menores en Entornos Digitales, que finalizará el próximo 1 de enero de 2025. |
|
|
|
|
|
El Anteproyecto de Ley Orgánica pretende proteger el derecho a la intimidad, al honor y a la propia imagen de los menores, así como el derecho a la protección de sus datos personales y al acceso a contenidos adecuados para su edad.
El texto del anteproyecto contiene, entre otras materias, disposiciones relativas a la edad a la que los menores pueden prestar su consentimiento para el tratamiento de sus datos (se eleva de 14 a 16 años); la obligación para plataformas de intercambio de vídeos e influencers, que deben establecer enlaces a los canales de denuncias para contenidos perjudiciales; la prohibición de acceso y/o activación de mecanismos aleatorios de recompensa por parte de menores de edad; y se obliga a los fabricantes de productos tecnológicos a introducir, en los dispositivos digitales, un sistema de control parental activado por defecto.
El texto remitido a la Comisión Europea introduce algunas modificaciones con respecto al documento que fue sometido a audiencia pública el pasado mes de junio. Entre otras, se obliga a los usuarios de especial relevancia que empleen servicios de intercambio de vídeos a través de plataforma, a publicar un enlace al sitio web de la autoridad audiovisual de supervisión con el fin de que los usuarios puedan notificar posibles infracciones de la normativa audiovisual.
También se obliga a los servicios de comunicación audiovisual televisivo lineal de acceso condicional y a los servicios de comunicación audiovisual televisivo a petición, a proporcionar mecanismos de control parental y establecer sistemas de verificación de edad para los usuarios, impidiendo el acceso de los menores a los contenidos más nocivos.
|
|
|
|
|
|
|
Investigación plataformas en Europa |
|
|
|
|
|
El 2 de octubre, la Comisión Europea ha solicitado información a TikTok, YouTube y Snapchat sobre el funcionamiento de sus sistemas y algoritmos de recomendación de contenido, en relación con el cumplimiento del Reglamento de Servicios Digitales (DSA).
De acuerdo con el Reglamento DSA, las grandes plataformas deben evaluar y mitigar los riesgos que pueden plantear sus servicios de recomendación, incluidos los riesgos para la salud mental de los usuarios y la difusión de contenido nocivo que pudiera surgir del diseño basado en la interacción de estos algoritmos.
Dichas plataformas tienen hasta el próximo 15 de noviembre para proporcionar información sobre cómo están evitando que se promocione contenido dañino, ilegal y de desinformación a los usuarios. Esta investigación es un paso preliminar previo a cualquier posible investigación formal por parte de la Comisión.
|
|
|
|
|
|
|
Código de prácticas publicitarias de la Cámara de Comercio Internacional |
|
|
|
|
|
El pasado 19 de septiembre, se publicó una nueva edición del Código de la Publicidad y Comunicaciones Comerciales de la Cámara de Comercio Internacional (ICC).
Este nuevo texto, que supone la 11ª edición del código, se adapta a las nuevas formas de comunicación comercial que han ido surgiendo, tales como la publicidad realizada a través de influencers, la publicidad digital, las alegaciones medioambientales en publicidad y los niños y adolescentes, e incorporando para ello nuevas definiciones y capítulos objeto de regulación.
|
|
|
|
|
|
|
California y Redes Sociales |
|
|
|
|
|
El 20 de septiembre, el gobernador de California, Gavin Newsom, firmó una Ley denominada “Protecting Our Kids from Social Media Addiction Act” diseñada para mejorar el control parental y proteger los menores de edad de la adicción a las redes sociales, y que entrará en vigor el próximo 1 de enero de 2025.
Según esta legislación, los padres deben dar su consentimiento para que sus hijos accedan a feeds de personalización algorítmica, en lugar de a contenido únicamente cronológico. Además, la ley prohíbe a las plataformas de redes sociales enviar notificaciones a los menores durante el horario escolar y desde la medianoche hasta las 6:00 a.m.
|
|
|
|
|
|
|
EEUU y plataformas online |
|
|
|
|
|
El pasado mes de septiembre, la Comisión Federal de Comercio de Estados Unidos (“US Federal Trade Commission - FTC”), como agencia gubernamental responsable de hacer cumplir las leyes de protección y privacidad del consumidor, publicó un informe en el que se concluye que las plataformas online tales como Meta, YouTube y TikTok llevan a cabo una "amplia vigilancia" de los usuarios para monetizar su información personal con fines publicitarios.
Como consecuencia de dicho informe, la FTC pide a los responsables políticos estadounidenses que aprueben una legislación de privacidad, a nivel federal, que limite la recopilación de datos por parte de las plataformas, e implementen una serie de políticas sólidas de procesamiento, minimización y retención de datos, lo que podría dar lugar a una futura acción regulatoria.
Este informe llega en un momento en el que el impulso a los proyectos de ley de privacidad, a nivel estatal, está en su punto más alto en los EE. UU. También refleja una tendencia mundial, ya que los responsables políticos de todo el mundo están abogando por una mayor protección de los menores en línea.
|
|
|
|
|
|
|
©2024, Asociación Española de Anunciantes |
|
Si no quiere recibir más información de Anunciantes haga clic aquí |
|
|